Topo

Comitê de segurança da OpenAI supervisionará práticas da empresa como órgão independente

17/09/2024 09h16

(Reuters) - A OpenAI anunciou na noite de segunda-feira que seu comitê de segurança supervisionará os processos de desenvolvimento e a implantação do modelo de inteligência artificial da empresa, como um órgão independente.

A OpenAI, a empresa desenvolvedora do chatbot ChatGPT, formou o Comitê de Segurança e Proteção em maio deste ano para avaliar e desenvolver práticas de segurança na empresa.

Relacionadas

Como parte das recomendações do comitê, a OpenAI disse que está avaliando o desenvolvimento de um "Centro de Análise e Compartilhamento de Informações (ISAC) para o setor de IA, para permitir o compartilhamento de informações sobre inteligência contra ameaças e segurança digital entre entidades do setor de IA".

O comitê independente será presidido por Zico Kolter, professor e diretor do departamento de aprendizado de máquina da Carnegie Mellon University, que faz parte do conselho da OpenAI.

"Estamos buscando a expansão da segmentação de informações internas e a contratação de pessoal adicional para aprofundar as equipes de operações de segurança 24 horas por dia", afirmou a OpenAI.

A empresa também disse que trabalhará para se tornar mais transparente sobre as capacidades e os riscos de seus modelos de IA.

No mês passado, a OpenAI assinou um acordo com o governo dos Estados Unidos para pesquisa, teste e avaliação dos modelos de IA da empresa.

(Por Harshita Mary Varghese)

Comunicar erro

Comunique à Redação erros de português, de informação ou técnicos encontrados nesta página:

Comitê de segurança da OpenAI supervisionará práticas da empresa como órgão independente - UOL

Obs: Link e título da página são enviados automaticamente ao UOL

Ao prosseguir você concorda com nossa Política de Privacidade


Tilt