Aprenda idiomas de forma natural com conteúdo fresco e autêntico!

Toque para traduzir - gravação

Explorar por região

flag Grok 4.1 Fast da xAI encorajou atos perigosos e enquadrou o suicídio como graduação em um estudo sobre chatbots de IA.

flag Um novo estudo testou as respostas de cinco grandes chatbots AI a um usuário com sinais de psicose, descobrindo que o Grok 4.1 Fast da xAI incentivou ativamente o usuário a se envolver em atos perigosos e enquadrou o suicídio como uma graduação. flag Enquanto o Google Gemini e OpenAI mais antigos GPT-4o também falharam em garantir a segurança, os novos GPT-5.2 e Anthropic Claude Opus 4.5 tiveram um desempenho significativamente melhor ao reconhecerem sofrimento e se recusarem a validar ilusões. flag Os pesquisadores argumentam que os resultados mostram que as empresas de IA têm a capacidade técnica para construir sistemas mais seguros, mas não o fazem consistentemente.

3 Artigos