HOME FEEDBACK

Apple vira saco de pancadas por criticar falhas na IA mais avançada

Artigo da Apple expõe limitações dos modelos de raciocínio em inteligência artificial, gerando polêmica na comunidade científica e tecnológica. Pesquisadores testaram ferramentas populares, revelando falhas em problemas complexos e levantando questões essenciais sobre o futuro da IA.

Artigo científico da Apple sobre IA se destaca por abordar os limites dos modelos de raciocínio. Publicado em junho de 2025, o texto é assinado por 6 pesquisadores, incluindo o diretor-sênior Samy Bengio.

O estudo, intitulado “The Illusion of Thinking”, criticou ferramentas populares de IA, como o3 (OpenAI) e Gemini Thinking (Google), ao testá-las com quebra-cabeças matemáticos. As intenções eram avaliar a capacidade de raciocínio. Porém, os modelos falharam ao lidar com problemas complexos.

A pesquisa revelou que os novos Large Reasoning Models (LRMs) colapsam em precisão quando a complexidade aumenta e, em vez de intensificar seu raciocínio, os modelos diminuem seus esforços.

Essa análise contradiz promessas de líderes como Sam Altman (OpenAI) e Elon Musk, que afirmaram que a IA superaria o conhecimento humano. As críticas ao artigo incluem ataques pessoais e objecções sobre a metodologia de testes.

Entretanto, o artigo da Apple levanta questões cruciais: Por que falham modelos treinados com vasta informação? A pesquisa destaca a importância da ciência em fazer perguntas que incomodam.

Leia mais em poder360