Como o caso do Grok expõe falhas e limites no uso da IA, segundo especialistas

Como o caso do Grok expõe falhas e limites no uso da IA, segundo especialistas

Depois das denúncias de uso do Grok para criar imagens sexualizadas falsas sem consentimento, o debate em torno da inteligência artificial (IA) da xAI avançou. Especialistas em tecnologia e ética apontam ao Olhar Digital que o problema não está apenas na IA em si, mas nas escolhas humanas que moldam como essas ferramentas são criadas, lançadas e usadas.

O episódio reacendeu uma discussão mais ampla sobre responsabilidade compartilhada no ecossistema da IA, que envolve empresas, desenvolvedores e usuários, num momento em que a IA se torna cada vez mais presente no cotidiano digital.

O problema não é só a IA, mas as escolhas humanas por trás dela

Para o especialista em tecnologia aplicada a negócios Edson Alves, CEO da Ikatec, tratar a IA como se fosse um “ente isolado” é um erro. “IA não decide sozinha. Ela reflete escolhas humanas, desde quem desenvolve até quem usa”, afirma. Segundo ele, a tecnologia carrega decisões tomadas ao longo de toda a cadeia: do desenho do produto às permissões dadas aos usuários.

Grok e Elon Musk
“IA não decide sozinha. Ela reflete escolhas humanas, desde quem desenvolve até quem usa”, diz especialista em tecnologia aplicada a negócios (Imagem: miss.cabul/Shutterstock)

Nesse cenário, Alves defende que “as empresas precisam assumir responsabilidade sobre limites, governança e uso indevido”. Ao mesmo tempo, ele alerta: “os usuários precisam entender que liberdade sem critério vira risco coletivo”.

Para Alessandra Montini, diretora do LabData da FIA Business School e colunista do Olhar Digital, aplicar ética a chatbots é um dos grandes desafios atuais porque envolve três níveis de responsabilidade que ainda não estão bem equilibrados.

O primeiro é técnico e moral. “Chatbots aprendem a partir de dados humanos, e dados humanos carregam contradições e falhas éticas”, afirma. “Ensinar uma IA a ‘agir eticamente’ não é como programar uma regra fixa; é tentar traduzir valores humanos, que variam por cultura, contexto e momento histórico, em sistemas probabilísticos.”

O segundo nível é o da responsabilização das empresas. “Embora as empresas criem, treinem e comercializem os chatbots, muitas vezes a responsabilidade fica diluída”, diz. “Quando algo dá errado, surge a pergunta difícil: a falha é do modelo, dos dados, do design do produto ou do uso final? Sem marcos regulatórios claros, empresas tendem a avançar mais rápido na inovação do que na governança ética.”

Já o terceiro nível costuma receber menos atenção: a responsabilidade dos usuários. “O uso intencional para desinformar, manipular ou substituir decisões críticas sem supervisão humana também é uma escolha ética do usuário”, explica. “Transferir toda a culpa para a tecnologia é ignorar o papel ativo de quem a utiliza.”

Críticas crescem, mas apetite por investimento em IA segue alto

Enquanto o debate ético se intensifica, a xAI, empresa de Elon Musk responsável pelo Grok, anunciou uma captação de US$ 20 bilhões (cerca de R$ 107,6 bilhões). O valor superou a meta inicial e foi divulgado em meio às críticas direcionadas à ferramenta de IA, que funciona no X/Twitter (também de Musk).

grok
Grok passou a permitir a edição de imagens sem notificar as pessoas retratadas, o que abriu caminho para uma onda de manipulações não consensuais (Imagem: Algi Febri Sugita/Shutterstock)

Segundo a AFP (via G1), a rodada ocorreu justamente quando o Grok passou a ser pressionado internacionalmente por permitir a geração de imagens falsas sexualizadas não autorizadas, inclusive envolvendo mulheres e menores de iade, por meio de configurações como o chamado “Modo Picante”.

Mesmo assim, o interesse dos investidores segue alto. A captação contou com a participação de grandes fundos internacionais e da Nvidia, que vai apoiar a expansão da infraestrutura da xAI com chips e software de IA.

Leia mais:

A empresa também destacou avanços técnicos recentes, como a ativação de grandes data centers e o uso de mais de um milhão de GPUs para treinar seus modelos. Além disso, a xAI lançou versões do Grok e afirma estar treinando a próxima geração da tecnologia.

Ou seja: de um lado, crescimento acelerado e bilhões em investimento; do outro, questionamentos éticos e pressões por responsabilização. O caso do Grok mostra que a corrida pela IA avança mais rápido do que o debate sobre seus limites. E é justamente essa distância que especialistas apontam como o maior risco no momento.

O post Como o caso do Grok expõe falhas e limites no uso da IA, segundo especialistas apareceu primeiro em Olhar Digital.