Aprenda idiomas de forma natural com conteúdo fresco e autêntico!

Tópicos populares
Explorar por região
O professor Carnegie Zico Kolter, da Carnegie Mellon, lidera o comitê de segurança da OpenAI, que pode interromper as liberações de IA para garantir a segurança durante sua transição para uma entidade com fins lucrativos.
Zico Kolter, professor de ciência da computação da Universidade Carnegie Mellon, de 42 anos, lidera o Comitê de Segurança e Segurança da OpenAI, um painel de quatro membros com o poder de deter as liberações de IA consideradas inseguras.
Nomeado há mais de um ano, seu papel tornou-se um requisito fundamental para a transição da OpenAI para 2025 em uma corporação de benefício público com fins lucrativos, mandatada por reguladores da Califórnia e Delaware.
Os acordos garantem que as decisões de segurança tenham precedência sobre os objetivos financeiros, concedendo a Kolter direitos de observação completos para reuniões de conselho com fins lucrativos e acesso a dados de segurança.
O comitê aborda riscos, incluindo o uso indevido de IA no desenvolvimento de armas, ataques cibernéticos e danos à saúde mental.
Kolter se recusou a confirmar se o painel já bloqueou um lançamento, mas enfatizou o crescente cenário de ameaças da IA avançada.
Sua liderança reflete um escrutínio elevado à medida que a OpenAI navega sua mudança de missão sem fins lucrativos para empresa comercial.
Zico Kolter, a Carnegie Mellon professor, leads OpenAI’s safety committee, which can halt AI releases to ensure safety during its transition to a for-profit entity.