Ferramenta de transcrição de IA Whisper usada em cuidados de saúde encontrado para criar texto falso, arriscando diagnóstico incorreto do paciente.
Um estudo recente descobriu que o Whisper, uma ferramenta de transcrição de IA amplamente utilizada em centros médicos, às vezes pode criar texto falso, conhecido como "alucinações". Isso pode levar a registros médicos imprecisos e possíveis erros como diagnóstico incorreto. A ferramenta é usada para transcrever conversas entre pacientes e médicos, levantando preocupações sobre sua confiabilidade em ambientes de saúde.
Há 2 meses
3 Artigos