top of page

‘Inteligência artificial está fora de controle’ diz Musk

Notícia


‘Inteligência artificial está fora de controle’ diz Musk - História em Destaque

Elon Musk no dia de admissão da Royal Society em Londres, julho de 2018. Wikimedia Commons. (CC BY-SA)


Nesta quarta-feira (29), foi divulgado um documento chamado “Pause Giant AI Experiments”, pela instituição Future of Life, que tem Elon Musk como uns dos seus maiores financiadores.


O documento trata-se de uma carta aberta onde Musk e outros executivos da área tecnológica, entre eles estão o Cofundador ad Apple, Steve Wozniak, e o CEO da Stability AI, Emad Mostaque, pedem a todos os laboratórios de Inteligência Artificial (IA) que parem imediatamente por pelo menos 6 meses o treinamento de sistemas de IA mais poderosos que o GPT-4.



Os executivos afirmam no texto que os sistemas de IA com inteligência competitiva com a humana “podem representar riscos profundos para a sociedade e a humanidade”. Segundo o documento, essa afirmação se baseia em extensa pesquisa, e reconhecida pelos principais laboratórios de IA.


Em outro documento, cujo título é Princípios de IA de Asilomar, desenvolvidos em conjunto com a conferência Asilomar 2017, que reuniu líderes da academia e da indústria, o texto afirma que “a IA avançada pode representar uma mudança profunda na história da vida na Terra e deve ser planejada e gerenciada com cuidados e recursos proporcionais”.


O que está acontecendo é "uma corrida descontrolada para desenvolver e implantar mentes digitais cada vez mais poderosa que ninguém – nem mesmo seus criadores – podem entender, prever ou controlar de forma confiável", dizem os executivos.



Com o avanço dos sistemas de IA é possível notar uma competitividade com humanos em tarefas gerais. O documento traz importantes indagações como: “devemos deixar que as máquinas inundem nossos canais de informações com propaganda e falsidade? Devemos autorizar todos os trabalhos, incluindo os satisfatórios? Deveríamos desenvolver mentes não-humanas que eventualmente nos superassem em número, fossem mais espertas e nos substituíssem? Devemos arriscar perder o controle de nossa civilização? Tais decisões não devem ser delegadas a líderes tecnológicos não eleitos”.



O texto sugere que os laboratórios de IA desenvolvam sistemas poderosos apenas quando estiverem convencidos de que seus efeitos serão positivos e seus riscos administráveis. Para corroborar com seu pedido, os executivos citaram uma declaração do OpenAI sobre inteligência artificial onde o laboratório afirma que "Em algum momento, pode ser importante obter uma revisão independente antes de começar a treinar sistemas futuros e para os esforços mais avançados concordar em limitar a taxa de crescimento da computação usada para criar novos modelos".



Para os executivos, agora é o momento importante para uma revisão independente, e sugerem que a pausa de seis meses seja pública e verificável, que inclua todos os principais atores, e se necessário, que os governos intervenham e decretem rapidamente a instituição de uma moratória.


Segundo o documento, todos os laboratórios de IA e especialista independentes devem usar esses seis meses de pausa para desenvolver e implementar protocolos de segurança compartilhados, que serão rigorosamente auditados e supervisionados por especialistas externos independentes. Dessa forma, “Esses protocolos devem garantir que os sistemas que aderem a eles sejam seguros além de qualquer dúvida razoável”, diz o documento. Os signatários deixam claro que o pedido não significa uma pausa geral no desenvolvimento de IA, apenas um “retrocesso na corrida perigosa para modelos de caixa preta cada vez maiores e imprevisíveis com capacidade emergentes”.


O alerta veio após a grande notoriedade alcançada pelo ChatGPT, criado pelo OpenAI, que recentemente disponibilizou a mais nova versão GPT-4. O laboratório já desenvolveu a GPT-5, mas ainda não foi treinada.

“A sociedade fez uma pausa em outras tecnologias com efeitos potencialmente catastróficos para o coletivo. Podemos fazer isso agora”.


Fonte: Future of Life

bottom of page