💬 Vitalik Buterin alerta para os avanços da IA.



A IA pode ultrapassar os humanos como uma "espécie superior".

"Uma das maneiras pelas quais a IA pode piorar o mundo é a pior possível: ela pode literalmente causar a extinção da humanidade."

Vitalik cita uma pesquisa de 2022 com mais de 4.270 pesquisadores, que estimou o risco de a IA matar a humanidade em 5-10%.

"Mesmo Marte pode não ser seguro se a IA superinteligente se voltar contra a humanidade."

Para Vitalik, a IA é "fundamentalmente diferente" de outras invenções recentes porque pode criar um novo tipo de "mente" que pode prejudicar os interesses humanos.

"A IA é um novo tipo de mente que está ganhando inteligência rapidamente e tem sérias chances de superar as faculdades mentais dos humanos e se tornar a nova espécie guarda-chuva do planeta."

Vitalik também sugeriu a "intenção humana ativa" de conduzir a IA em uma direção benéfica para a humanidade.
ONS-2.8%
Ver original
post-image
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Compartilhar
Comentário
0/400
Sem comentários
  • Marcar
Faça trade de criptomoedas em qualquer lugar e a qualquer hora
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)