Comitê de segurança da OpenAI supervisionará práticas da empresa como órgão independente

(Reuters) - A OpenAI anunciou na noite de segunda-feira que seu comitê de segurança supervisionará os processos de desenvolvimento e a implantação do modelo de inteligência artificial da empresa, como um órgão independente.

A OpenAI, a empresa desenvolvedora do chatbot ChatGPT, formou o Comitê de Segurança e Proteção em maio deste ano para avaliar e desenvolver práticas de segurança na empresa.

Como parte das recomendações do comitê, a OpenAI disse que está avaliando o desenvolvimento de um "Centro de Análise e Compartilhamento de Informações (ISAC) para o setor de IA, para permitir o compartilhamento de informações sobre inteligência contra ameaças e segurança digital entre entidades do setor de IA".

O comitê independente será presidido por Zico Kolter, professor e diretor do departamento de aprendizado de máquina da Carnegie Mellon University, que faz parte do conselho da OpenAI.

"Estamos buscando a expansão da segmentação de informações internas e a contratação de pessoal adicional para aprofundar as equipes de operações de segurança 24 horas por dia", afirmou a OpenAI.

A empresa também disse que trabalhará para se tornar mais transparente sobre as capacidades e os riscos de seus modelos de IA.

No mês passado, a OpenAI assinou um acordo com o governo dos Estados Unidos para pesquisa, teste e avaliação dos modelos de IA da empresa.

(Por Harshita Mary Varghese)

Deixe seu comentário

O autor da mensagem, e não o UOL, é o responsável pelo comentário. Leia as Regras de Uso do UOL.