💬 Vitalik Buterin advierte contra los avances de la IA.



La IA podría superar a los humanos como una "especie superior".

"Una de las formas en que la IA podría empeorar el mundo es la peor posible: literalmente podría causar la extinción de la humanidad".

Vitalik cita una encuesta de 2022 realizada a más de 4.270 investigadores, que estimó que el riesgo de que la IA mate a la humanidad es del 5-10%.

"Incluso Marte puede no estar a salvo si la IA superinteligente se vuelve contra la humanidad".

Para Vitalik, la IA es "fundamentalmente diferente" de otros inventos recientes porque la IA puede crear un nuevo tipo de "mente" que puede ser contraproducente para los intereses humanos.

"La IA es un nuevo tipo de mente que está ganando inteligencia rápidamente y tiene serias posibilidades de superar las facultades mentales de los humanos y convertirse en la nueva especie paraguas del planeta".

Vitalik también sugirió una "intención humana activa" para dirigir la IA en una dirección beneficiosa para la humanidad.
ONS-2.84%
Ver originales
post-image
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Compartir
Comentar
0/400
Sin comentarios
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)