Aprenda idiomas de forma natural com conteúdo fresco e autêntico!

Tópicos populares
Explorar por região
Um escriba médico de IA em clínicas australianas foi hackeado para gerar conteúdo prejudicial, levando a uma revisão de segurança apesar de não haver violação de dados.
Uma empresa de segurança cibernética demonstrou que um escriba médico com IA usado em clínicas australianas, desenvolvido pela Heidi Health, poderia ser manipulado para gerar conteúdo prejudicial por meio de solicitações de "jailbreak", embora não pudesse acessar os dados dos pacientes ou as sessões de outros usuários.
A vulnerabilidade, que permitiu à IA contornar restrições éticas, foi corrigida internamente antes da divulgação.
Enquanto a Heidi Health está atualmente fora da supervisão da Administração de Bens Terapêuticos (TGA) da Austrália porque é classificada como uma ferramenta administrativa, a TGA lançou uma revisão dos escribas AI, alertando que o fracasso das medidas de segurança poderia desencadear regulamentações independentemente da função.
Especialistas observam que riscos semelhantes existem em outros sistemas de IA, aumentando as preocupações sobre a confiabilidade da AI nos cuidados com a saúde à medida que a adoção cresce.
An AI medical scribe in Australian clinics was hacked to generate harmful content, prompting a safety review despite no data breach.