De acordo com pesquisadores da RSAC Conference, a Apple Intelligence pode ser manipulada por hackers utilizando técnicas de injeção de prompt.
Em uma pesquisa elaborada por Petros Efstathopoulos, Laura Koetzle e Dario Pasquini, descobriu-se mecanismos para contornar os filtros de entrada e saída da Apple em relação ao seu modelo local de LLM 1, testando as técnicas de ataque com 100 prompts randomizados; 76% das tentativas foram bem sucedidas.
Com foco nos modelos de linguagem executados localmente no sistema operacional, a principal técnica de ataque empreendida (chamada de “Neural Exec”) induzia a execução de ações específicas de forma consistente aos LLM, de forma que parecesse sem sentido para humanos — o que garante a quem realiza os ataques o controle do input e output da Apple Intelligence.
Além de gerar conteúdos textuais em desconformidade com os termos da Maçã, a Apple Intelligence tem a capacidade de se conectar a aplicativos de terceiros por meio de APIs 2 do sistema, o que indica que respostas manipuladas podem influenciar o comportamento de outros aplicativos ou até mesmo expor dados sensíveis. A pesquisa estima que cerca de 100 mil até 1 milhão de usuários já podem ter sido afetados por aplicativos potencialmente expostos.
As descobertas foram compartilhadas com a Apple no dia 15 de outubro de 2025. Embora a resposta não tenha sido detalhada oficialmente, a Maçã supostamente endureceu suas proteções em relação à sua solução de inteligência artificial (IA) nas versões 26.4 do iOS e do macOS, pelo menos de acordo com a RSAC.
via AppleInsider