HOME FEEDBACK

‘AI 2027’: Relatório sobre futuro catastrófico terá continuação com plano para evitar colapso

Novo relatório sobre IA propõe recomendações para evitar cenários distópicos apresentados no "AI 2027". Especialistas alertam sobre os riscos de uma crescente delegação de decisões a sistemas automatizados sem supervisão adequada.

Relatório “AI 2027”: uma leitura vital na tecnologia e pesquisa, prevendo risco elevado na inteligência artificial. O documento critica as big techs e menciona que o objetivo é fomentar o debate.

Publicação e previsões: Publicada pela AI Futures, a análise projeta que, em dois anos, a IA superará humanos em várias tarefas. O pior cenário aponta a erosão institucional e uma corrida armamentista com sistemas autônomos.

Próxima publicação: Após o “AI 2027”, um novo relatório será elaborado, visando sugerir ações para evitar desfechos negativos. Daniel Kokotajlo, ex-pesquisador da OpenAI, lidera o projeto.

Pontos do novo relatório:

  • Aumento da transparência nas empresas de IA.
  • Publicação dos “model specs”, que detalham como a IA é treinada.
  • Criação de documentos públicos de segurança e mecanismos para proteger denunciantes.
  • Coordenação internacional entre empresas para mitigar riscos.

Preocupações: Vollmer destaca a delegação crescente de decisões a sistemas que se tornam influentes, sem entendimento público sobre seus processos. O relatório sinaliza um mundo mais desigual, com crises sociais e políticas intensificadas.

Superinteligência: Projeções indicam que, até 2027, a IA pode superar humanos em várias tarefas. O grupo acredita que isso é possível devido ao trabalho intenso de pesquisadores e ao ritmo de inovações.

Papel do Brasil: Embora o documento foque nos EUA e China, Vollmer enfatiza que o Brasil pode influenciar acordos multilaterais e garantir que os benefícios da IA sejam compartilhados globalmente, defendendo justiça distributiva.

Leia mais em o-globo