Apple vira saco de pancadas por criticar falhas na IA mais avançada
Artigo da Apple expõe limitações dos modelos de raciocínio em inteligência artificial, gerando polêmica na comunidade científica e tecnológica. Pesquisadores testaram ferramentas populares, revelando falhas em problemas complexos e levantando questões essenciais sobre o futuro da IA.
Artigo científico da Apple sobre IA se destaca por abordar os limites dos modelos de raciocínio. Publicado em junho de 2025, o texto é assinado por 6 pesquisadores, incluindo o diretor-sênior Samy Bengio.
O estudo, intitulado “The Illusion of Thinking”, criticou ferramentas populares de IA, como o3 (OpenAI) e Gemini Thinking (Google), ao testá-las com quebra-cabeças matemáticos. As intenções eram avaliar a capacidade de raciocínio. Porém, os modelos falharam ao lidar com problemas complexos.
A pesquisa revelou que os novos Large Reasoning Models (LRMs) colapsam em precisão quando a complexidade aumenta e, em vez de intensificar seu raciocínio, os modelos diminuem seus esforços.
Essa análise contradiz promessas de líderes como Sam Altman (OpenAI) e Elon Musk, que afirmaram que a IA superaria o conhecimento humano. As críticas ao artigo incluem ataques pessoais e objecções sobre a metodologia de testes.
Entretanto, o artigo da Apple levanta questões cruciais: Por que falham modelos treinados com vasta informação? A pesquisa destaca a importância da ciência em fazer perguntas que incomodam.