Em cúpula sobre IA em Seul, Coreia do Sul pede que mundo tem de cooperar na tecnologia
Por Joyce Lee
SEUL (Reuters) - O ministro da Ciência e Tecnologia da Informação da Coreia do Sul disse nesta quarta-feira, no encerramento de uma cúpula global sobre inteligência artificial sediada pelo país, que o mundo tem de cooperar para garantir o desenvolvimento bem-sucedido da IA.
A cúpula de IA em Seul, que está sendo co-organizada com o Reino Unido, discutiu preocupações como segurança no emprego, direitos autorais e desigualdade nesta quarta-feira, depois que 16 empresas de tecnologia assinaram um acordo voluntário para desenvolver a IA com segurança um dia antes.
Um compromisso separado foi assinado na quarta-feira por 14 empresas, incluindo a Alphabet Google, Microsoft, OpenAI e seis empresas sul-coreanas para usar métodos como marca d'água para ajudar a identificar o conteúdo gerado por IA, bem como garantir a criação de empregos e ajuda para grupos socialmente vulneráveis.
"A cooperação não é uma opção, é uma necessidade", disse Lee Jong-Ho, ministro da Ciência, Tecnologias da Informação e Comunicação da Coreia do Sul, em uma entrevista à Reuters.
"A cúpula de Seul deu mais forma às conversas sobre segurança de IA e acrescentou discussões sobre inovação e inclusão", disse Lee, acrescentando que espera que as discussões na próxima cúpula incluam mais colaboração em institutos de segurança de IA.
A primeira cúpula global de IA foi realizada no Reino Unido em novembro, e a próxima reunião presencial deverá ocorrer na França, provavelmente em 2025.
Ministros e autoridades de vários países discutiram nesta quarta-feira a cooperação entre institutos de segurança de IA apoiados pelo Estado para ajudar a regular a tecnologia.
Os especialistas em IA elogiaram as medidas tomadas até o momento para começar a regulamentar a tecnologia, embora alguns tenham dito que as regras precisam ser aplicadas.
"Precisamos ir além do voluntariado... as pessoas afetadas devem estabelecer as regras por meio dos governos", disse Francine Bennett, diretora do Ada Lovelace Institute, voltado para a IA.
Deve-se provar que os serviços de IA atendem aos padrões de segurança obrigatórios antes de serem lançados no mercado, para que as empresas equiparem a segurança ao lucro e evitem qualquer possível reação do público em caso de danos inesperados, disse Max Tegmark, presidente do Future of Life Institute, uma organização que fala sobre os riscos dos sistemas de IA.
Lee disse que as leis tendem a ficar para trás em relação à velocidade do avanço de tecnologias como a IA.
"Mas para que o público possa usá-la com segurança, é necessário que haja leis e regulamentações flexíveis."
Deixe seu comentário