Square
Plus récents
Populaire
Actualités
Profil
Publication
Gate.ioArnaud
2023-11-28 09:23:51
đŹ Vitalik Buterin prĂ©vient contre les avancĂ©es de l'IA.
l'IA pourrait dépasser l'homme en tant qu'"espÚce supérieure".
"L'une des façons dont l'IA pourrait aggraver le monde est la pire possible : elle pourrait littéralement provoquer l'extinction de l'humanité."
Vitalik cite une enquĂȘte de 2022 auprĂšs de plus de 4 270 chercheurs, qui estimait Ă 5-10 % le risque que l'IA tue l'humanitĂ©.
"MĂȘme Mars pourrait ne pas ĂȘtre en sĂ©curitĂ© si l'IA superintelligente se retourne contre l'humanitĂ©".
Pour Vitalik, l'IA est "fondamentalement diffĂ©rente" d'autres inventions rĂ©centes car l'IA peut crĂ©er un nouveau type d'"esprit" qui peut se retourner contre les intĂ©rĂȘts humains.
"L'IA est un nouveau type d'esprit qui gagne rapidement en intelligence et qui a de sérieuses chances de dépasser les facultés mentales de l'homme et de devenir la nouvelle espÚce faßtiÚre de la planÚte."
Vitalik a également suggéré une "intention humaine active" pour orienter l'IA dans une direction bénéfique pour l'humanité.
ONS
-6.43%
Cette page peut inclure du contenu de tiers fourni Ă des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validitĂ© de ces contenus, nâendosse pas les opinions exprimĂ©es, et ne fournit aucun conseil financier ou professionnel Ă travers ces informations. Voir la section
Avertissement
pour plus de détails.
Récompense
J'aime
Commentaire
Partager
Commentaire
0/400
Commentaire
Aucun commentaire
Rubrique
1
/3
1
Altcoin Season Coming?
46k Popularité
2
Stablecoin Regulation Crackdown
27k Popularité
3
Spark Program KOLs Surpass 1,000+
7k Popularité
4
ETH Breaks Through $3,800
26k Popularité
5
Institutions Buying Bitcoin
18k Popularité
Ăpingler
plan du site
đŹ Vitalik Buterin prĂ©vient contre les avancĂ©es de l'IA.
l'IA pourrait dépasser l'homme en tant qu'"espÚce supérieure".
"L'une des façons dont l'IA pourrait aggraver le monde est la pire possible : elle pourrait littéralement provoquer l'extinction de l'humanité."
Vitalik cite une enquĂȘte de 2022 auprĂšs de plus de 4 270 chercheurs, qui estimait Ă 5-10 % le risque que l'IA tue l'humanitĂ©.
"MĂȘme Mars pourrait ne pas ĂȘtre en sĂ©curitĂ© si l'IA superintelligente se retourne contre l'humanitĂ©".
Pour Vitalik, l'IA est "fondamentalement diffĂ©rente" d'autres inventions rĂ©centes car l'IA peut crĂ©er un nouveau type d'"esprit" qui peut se retourner contre les intĂ©rĂȘts humains.
"L'IA est un nouveau type d'esprit qui gagne rapidement en intelligence et qui a de sérieuses chances de dépasser les facultés mentales de l'homme et de devenir la nouvelle espÚce faßtiÚre de la planÚte."
Vitalik a également suggéré une "intention humaine active" pour orienter l'IA dans une direction bénéfique pour l'humanité.