Ferramenta de transcrição de IA Whisper usada em cuidados de saúde encontrado para criar texto falso, arriscando diagnóstico incorreto do paciente.

Um estudo recente descobriu que o Whisper, uma ferramenta de transcrição de IA amplamente utilizada em centros médicos, às vezes pode criar texto falso, conhecido como "alucinações". Isso pode levar a registros médicos imprecisos e possíveis erros como diagnóstico incorreto. A ferramenta é usada para transcrever conversas entre pacientes e médicos, levantando preocupações sobre sua confiabilidade em ambientes de saúde.

Há 2 meses
3 Artigos

Leitura adicional