EM 5 A 10 ANOS

42% dos CEOs acreditam que IA pode destruir a humanidade

Compartilhe
Inteligência Artifical
Resultados mostraram que 42% dos CEOs nos EUA acreditam que a Inteligência Artificial destruirá a humanidade dentro de 5 a 10 anos.

BRASÍLIA, 27 de junho de 2023 – A Yale CEO Summit, evento organizado por Jeffrey Sonnenfeld, abordou o potencial da Inteligência Artificial (IA) em um futuro próximo. Segundo uma pesquisa com 119 CEOs de marcas renomadas, como Coca-Cola, Zoom e Walmart, 42% deles acreditam que a IA poderia destruir a humanidade em um prazo de 5 a 10 anos.

No entanto, a maioria dos executivos não compartilha dessa preocupação e acredita que tal cenário é improvável. Os resultados revelaram que 34% dos CEOs consideram que a IA poderia ameaçar a humanidade em 10 anos, enquanto 8% acreditam que isso ocorreria em apenas 5 anos.

Por outro lado, 58% dos entrevistados não veem essa possibilidade como uma preocupação real. Essas divergências de opinião refletem a perspectiva do público em relação ao poder da IA.

Atualmente, há um debate em andamento sobre a regulamentação dessa tecnologia para garantir a segurança dos usuários, uma preocupação compartilhada por diversas autoridades.

Compartilhe

Leia mais

Lula TCE

LISTA

Esposas de ministros de Lula ocupam cargos vitalícios em TCE
Lula TCE

LISTA

Esposas de ministros de Lula ocupam cargos vitalícios em TCE

Maranhão IBGE

IBGE

Apenas 27% dos lares no Maranhão têm máquina de lavar roupa
Maranhão IBGE

IBGE

Apenas 27% dos lares no Maranhão têm máquina de lavar roupa

Maranhão Amazônia

AMAZÔNIA LEGAL

Mortes violentas no Maranhão superam média nacional
Maranhão Amazônia

AMAZÔNIA LEGAL

Mortes violentas no Maranhão superam média nacional

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Propaganda

SEMINARIO DE FILOSOFIA

Gostaríamos de usar cookies para melhorar sua experiência.

Visite nossa página de consentimento de cookies para gerenciar suas preferências.

Conheça nossa política de privacidade.