El 9 de julio de 2025, Nvidia se convirtió en la primera empresa que alcanzó un valor de mercado de 4 billones de dólares. ¿Cuál será el futuro de Nvidia y del volátil campo de la IA?
Aunque es difícil hacer predicciones, hay una gran cantidad de datos disponibles. Al menos puede ayudar a entender por qué las predicciones pasadas no se realizaron, así como en qué aspectos, de qué manera y por qué no se cumplieron. Esa es la historia.
¿Qué lecciones se pueden aprender de los 80 años de desarrollo de la inteligencia artificial (IA)? Durante este período, la inversión de capital ha fluctuado, los métodos de investigación y desarrollo han sido diversos, y el público ha estado a veces lleno de curiosidad, a veces ansioso y otras veces emocionado.
La historia de la IA comienza en diciembre de 1943, cuando el neurofisiologo Warren S. McCulloch y el lógico Walter Pitts publicaron un artículo sobre lógica matemática. En el artículo "El cálculo lógico de las ideas inherentes en la actividad neural", especularon sobre redes neuronales idealizadas y simplificadas, y cómo estas podrían realizar operaciones lógicas simples al transmitir o no transmitir impulsos.
Ralph Lillie, quien estaba innovando en el campo de la química organizacional, describió el trabajo de McCulloch y Pitts como dotar de "realidad" a "modelos lógicos y matemáticos" en ausencia de "hechos experimentales". Más tarde, cuando las hipótesis de dicho artículo no lograron pasar la prueba empírica, Jerome Lettvin del MIT señaló que, aunque el campo de la neurología y la neurobiología ignoró este artículo, inspiró a "aquellos que estaban destinados a convertirse en entusiastas de un nuevo campo (hoy conocido como IA)".
De hecho, el trabajo de McCulloch y Pitts inspiró el "conectivismo", una variante específica de la IA que hoy en día domina, conocida como "aprendizaje profundo", que recientemente ha sido renombrada como "IA". A pesar de que este enfoque no tiene ninguna relación con la forma en que realmente funciona el cerebro, el método de análisis estadístico que respalda esta variante de IA, las "redes neuronales artificiales", a menudo es descrito por los profesionales y comentaristas de la IA como "una imitación del cerebro". La autoridad y principal profesional de IA Demis Hassabis afirmó en 2017 que la descripción ficticia de McCulloch y Pitts sobre el funcionamiento del cerebro y estudios similares "continúan sentando las bases para la investigación contemporánea en aprendizaje profundo".
Lección uno: Debemos tener cuidado de confundir la ingeniería con la ciencia, la ciencia con la suposición, y la ciencia con los artículos llenos de símbolos matemáticos y fórmulas. Lo más importante es resistir la tentación de la ilusión de "somos como dioses", es decir, creer que los humanos no son diferentes de las máquinas y que los humanos pueden crear máquinas que sean como los humanos.
Esta arrogancia obstinada y omnipresente ha sido un catalizador para la burbuja tecnológica y el entusiasmo cíclico de la IA durante los últimos 80 años.
Esto no puede evitar recordar la idea de la IA general (AGI), es decir, máquinas que pronto tendrán inteligencia similar a la humana o incluso inteligencia superhumana.
En 1957, el pionero de la IA Herbert Simon afirmó: "Hoy en día ya existen máquinas que pueden pensar, aprender y crear." También predijo que en diez años las computadoras se convertirían en campeonas de ajedrez. En 1970, otro pionero de la IA, Marvin Minsky, expresó con gran confianza: "Dentro de tres a ocho años, tendremos una máquina con inteligencia comparable a la de un humano... Una vez que las computadoras tomen el control, es posible que nunca podamos recuperarlo. Tendremos que sobrevivir gracias a sus dones. Si tenemos suerte, podrían decidir mantenernos como mascotas."
Las expectativas sobre el inminente surgimiento de la IA general son extraordinarias e incluso influyen en los gastos y políticas gubernamentales. En 1981, Japón asignó 850 millones de dólares al proyecto de la quinta generación de computadoras, con el objetivo de desarrollar máquinas que piensen como los humanos. En respuesta, la Agencia de Proyectos de Investigación Avanzada de Defensa de EE. UU., tras haber pasado por un largo "invierno de la IA", planeó en 1983 re-financiar la investigación en IA para desarrollar máquinas que puedan "ver, oír, hablar y pensar como los humanos."
Los gobiernos progresistas de todo el mundo han pasado aproximadamente diez años y decenas de miles de millones de dólares no solo para tener una comprensión clara de la IA general (AGI), sino también para reconocer las limitaciones de la IA tradicional. Pero para 2012, el conexionismo finalmente superó a otras corrientes de IA, y una nueva ronda de predicciones sobre la llegada inminente de la IA general barrió el mundo. OpenAI declaró en 2023 que la IA superinteligente —"el invento más influyente de la historia de la humanidad"— podría llegar en esta década y que "podría llevar a la pérdida de poder de la humanidad e incluso a la extinción de la humanidad".
Lección** Dos: Tenga cuidado con esas nuevas cosas brillantes y atractivas, y examínelas con cuidado, precaución e inteligencia. No necesariamente son muy diferentes de las diversas especulaciones anteriores sobre cuándo las máquinas pueden tener una inteligencia similar a la humana.**
Uno de los "padres" del aprendizaje profundo, Yann LeCun, declaró: "Para que las máquinas aprendan de manera tan eficiente como los humanos y los animales, nos falta algo clave, solo que actualmente no sabemos qué es."
Durante años, la IA general (AGI) ha sido considerada "inminente", todo debido a la "falacia del primer paso". Yehoshua Bar-Hillel, un pionero en traducción automática, fue una de las primeras personas en hablar sobre las limitaciones de la inteligencia de las máquinas. Señaló que muchas personas creen que si alguien demuestra que una computadora puede realizar una tarea que hasta hace poco se pensaba que solo podía ser hecha por humanos, incluso si lo hace muy mal, solo se requiere un mayor desarrollo técnico para que complete la tarea perfectamente. La gente comúnmente piensa que solo es cuestión de esperar pacientemente hasta que finalmente se logre. Pero Bar-Hillel advirtió ya en la década de 1950 que esa no era la realidad, y la realidad ha demostrado repetidamente que no es así.
Lección tres: Pasar de no poder hacer algo a hacerlo mal, suele ser un camino mucho más corto que pasar de hacerlo mal a hacerlo muy bien.
En las décadas de 1950 y 1960, debido a la mejora en la velocidad de procesamiento de los semiconductores que impulsaban las computadoras, muchas personas cayeron en la "falacia del primer paso". A medida que el hardware evolucionaba cada año siguiendo la confiable trayectoria ascendente de la "ley de Moore", la gente asumía que la inteligencia de las máquinas también se desarrollaría en sincronía con el hardware.
Sin embargo, además de la continua mejora del rendimiento del hardware, el desarrollo de la IA ha entrado en una nueva etapa, introduciendo dos nuevos elementos: software y recolección de datos. Desde mediados de la década de 1960, los sistemas expertos (nota: un sistema de programa informático inteligente) han puesto un nuevo enfoque en la adquisición y programación del conocimiento del mundo real, especialmente el conocimiento de expertos en campos específicos y sus reglas empíricas (métodos heurísticos). Los sistemas expertos se hicieron cada vez más populares, y para la década de 1980, se estimaba que dos tercios de las empresas de la lista Fortune 500 aplicaban esta tecnología en sus actividades comerciales diarias.
Sin embargo, a principios de la década de 1990, esta fiebre de la IA se desvaneció por completo. Muchas startups de IA cerraron, y grandes empresas comenzaron a congelar o cancelar sus proyectos de IA. Ya en 1983, el pionero de los sistemas expertos, Ed Feigenbaum, señaló el "cuello de botella clave" que llevó a su desaparición: la expansión del proceso de adquisición de conocimiento, "que es un proceso muy complicado, que consume mucho tiempo y es costoso."
Los sistemas expertos también enfrentan el desafío de la acumulación de conocimientos. La necesidad de agregar y actualizar reglas continuamente los hace difíciles de mantener y costosos. También exponen las deficiencias de las máquinas de pensamiento en comparación con la inteligencia humana. Son "frágiles", cometen errores absurdos cuando se enfrentan a entradas inusuales, no pueden transferir su experiencia a nuevos campos y carecen de comprensión del mundo que los rodea. En el nivel más fundamental, no pueden aprender de ejemplos, experiencias y entornos como lo hacen los humanos.
Lección cuatro:** El éxito inicial, es decir, la amplia adopción por parte de empresas e instituciones gubernamentales, así como una gran cantidad de inversión pública y privada, incluso después de diez o quince años, no necesariamente puede generar una "nueva industria" duradera. Las burbujas a menudo estallan.**
En medio de altibajos, especulaciones y contratiempos, dos enfoques de desarrollo de IA completamente diferentes han estado compitiendo por la atención del mundo académico, los inversores públicos y privados, así como los medios de comunicación. Durante más de cuarenta años, el enfoque de IA simbólica basado en reglas ha dominado. Sin embargo, el conexionismo basado en instancias y impulsado por análisis estadísticos, como otro enfoque principal de IA, también tuvo su momento de gloria y fue muy popular a finales de la década de 1950 y finales de la década de 1980.
Antes del renacimiento del conexionismo en 2012, la investigación y el desarrollo de la IA fueron impulsados principalmente por el mundo académico. Una característica del mundo académico es la predominancia del dogmatismo (la llamada "ciencia convencional"), y siempre ha existido una elección entre el AI simbólico y el conexionismo. En 2019, Geoffrey Hinton, en su discurso del Premio Turing, pasó la mayor parte del tiempo hablando sobre las dificultades que él y unos pocos entusiastas del aprendizaje profundo enfrentaron a manos de los académicos de IA y aprendizaje automático convencionales. Hinton también menospreció deliberadamente el aprendizaje por refuerzo y el trabajo de sus colegas en DeepMind.
Solo unos años después, en 2023, DeepMind asumió el negocio de IA de Google (Hinton también se fue de allí), esto fue principalmente en respuesta al éxito de OpenAI, que también hizo del aprendizaje por refuerzo una parte de su desarrollo de IA. Los dos pioneros del aprendizaje por refuerzo, Andrew Barto y Richard Sutton, recibieron el Premio Turing en 2025.
Sin embargo, actualmente no hay señales de que, ya sea DeepMind o OpenAI, o las numerosas empresas "unicornio" dedicadas a la IA general (AGI), su enfoque vaya más allá del paradigma de los grandes modelos de lenguaje que prevalecen en la actualidad. Desde 2012, el enfoque del desarrollo de la IA ha cambiado de la academia al sector privado; sin embargo, todo el campo sigue obsesionado con una única dirección de investigación.
Lección cinco: No pongas todos tus "huevos" de IA en la misma "cesta".
Sin duda, Jensen Huang es un destacado CEO y Nvidia es una empresa excepcional. Hace más de diez años, cuando la oportunidad de la IA surgió de repente, Nvidia rápidamente aprovechó esta oportunidad, ya que la capacidad de procesamiento paralelo de sus chips (diseñados originalmente para renderizar videojuegos de manera eficiente) es muy adecuada para los cálculos de aprendizaje profundo. Jensen Huang se mantiene siempre alerta, les dice a los empleados: "Nuestra empresa está a solo 30 días de la quiebra."
Además de mantenerse alerta (¿recuerdas a Intel?), las lecciones aprendidas de los 80 años de desarrollo de la IA podrían ayudar a NVIDIA a navegar las fluctuaciones de los próximos 30 días o 30 años.
Artículos relacionados: Un vistazo a 10 empresas y modelos de IA que definen la actual revolución de la IA
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Al repasar los 80 años de desarrollo de la IA, estas 5 lecciones históricas son dignas de ser aprendidas.
Autor: Gil Press
Compilado por: Felix, PANews
El 9 de julio de 2025, Nvidia se convirtió en la primera empresa que alcanzó un valor de mercado de 4 billones de dólares. ¿Cuál será el futuro de Nvidia y del volátil campo de la IA?
Aunque es difícil hacer predicciones, hay una gran cantidad de datos disponibles. Al menos puede ayudar a entender por qué las predicciones pasadas no se realizaron, así como en qué aspectos, de qué manera y por qué no se cumplieron. Esa es la historia.
¿Qué lecciones se pueden aprender de los 80 años de desarrollo de la inteligencia artificial (IA)? Durante este período, la inversión de capital ha fluctuado, los métodos de investigación y desarrollo han sido diversos, y el público ha estado a veces lleno de curiosidad, a veces ansioso y otras veces emocionado.
La historia de la IA comienza en diciembre de 1943, cuando el neurofisiologo Warren S. McCulloch y el lógico Walter Pitts publicaron un artículo sobre lógica matemática. En el artículo "El cálculo lógico de las ideas inherentes en la actividad neural", especularon sobre redes neuronales idealizadas y simplificadas, y cómo estas podrían realizar operaciones lógicas simples al transmitir o no transmitir impulsos.
Ralph Lillie, quien estaba innovando en el campo de la química organizacional, describió el trabajo de McCulloch y Pitts como dotar de "realidad" a "modelos lógicos y matemáticos" en ausencia de "hechos experimentales". Más tarde, cuando las hipótesis de dicho artículo no lograron pasar la prueba empírica, Jerome Lettvin del MIT señaló que, aunque el campo de la neurología y la neurobiología ignoró este artículo, inspiró a "aquellos que estaban destinados a convertirse en entusiastas de un nuevo campo (hoy conocido como IA)".
De hecho, el trabajo de McCulloch y Pitts inspiró el "conectivismo", una variante específica de la IA que hoy en día domina, conocida como "aprendizaje profundo", que recientemente ha sido renombrada como "IA". A pesar de que este enfoque no tiene ninguna relación con la forma en que realmente funciona el cerebro, el método de análisis estadístico que respalda esta variante de IA, las "redes neuronales artificiales", a menudo es descrito por los profesionales y comentaristas de la IA como "una imitación del cerebro". La autoridad y principal profesional de IA Demis Hassabis afirmó en 2017 que la descripción ficticia de McCulloch y Pitts sobre el funcionamiento del cerebro y estudios similares "continúan sentando las bases para la investigación contemporánea en aprendizaje profundo".
Lección uno: Debemos tener cuidado de confundir la ingeniería con la ciencia, la ciencia con la suposición, y la ciencia con los artículos llenos de símbolos matemáticos y fórmulas. Lo más importante es resistir la tentación de la ilusión de "somos como dioses", es decir, creer que los humanos no son diferentes de las máquinas y que los humanos pueden crear máquinas que sean como los humanos.
Esta arrogancia obstinada y omnipresente ha sido un catalizador para la burbuja tecnológica y el entusiasmo cíclico de la IA durante los últimos 80 años.
Esto no puede evitar recordar la idea de la IA general (AGI), es decir, máquinas que pronto tendrán inteligencia similar a la humana o incluso inteligencia superhumana.
En 1957, el pionero de la IA Herbert Simon afirmó: "Hoy en día ya existen máquinas que pueden pensar, aprender y crear." También predijo que en diez años las computadoras se convertirían en campeonas de ajedrez. En 1970, otro pionero de la IA, Marvin Minsky, expresó con gran confianza: "Dentro de tres a ocho años, tendremos una máquina con inteligencia comparable a la de un humano... Una vez que las computadoras tomen el control, es posible que nunca podamos recuperarlo. Tendremos que sobrevivir gracias a sus dones. Si tenemos suerte, podrían decidir mantenernos como mascotas."
Las expectativas sobre el inminente surgimiento de la IA general son extraordinarias e incluso influyen en los gastos y políticas gubernamentales. En 1981, Japón asignó 850 millones de dólares al proyecto de la quinta generación de computadoras, con el objetivo de desarrollar máquinas que piensen como los humanos. En respuesta, la Agencia de Proyectos de Investigación Avanzada de Defensa de EE. UU., tras haber pasado por un largo "invierno de la IA", planeó en 1983 re-financiar la investigación en IA para desarrollar máquinas que puedan "ver, oír, hablar y pensar como los humanos."
Los gobiernos progresistas de todo el mundo han pasado aproximadamente diez años y decenas de miles de millones de dólares no solo para tener una comprensión clara de la IA general (AGI), sino también para reconocer las limitaciones de la IA tradicional. Pero para 2012, el conexionismo finalmente superó a otras corrientes de IA, y una nueva ronda de predicciones sobre la llegada inminente de la IA general barrió el mundo. OpenAI declaró en 2023 que la IA superinteligente —"el invento más influyente de la historia de la humanidad"— podría llegar en esta década y que "podría llevar a la pérdida de poder de la humanidad e incluso a la extinción de la humanidad".
Lección** Dos: Tenga cuidado con esas nuevas cosas brillantes y atractivas, y examínelas con cuidado, precaución e inteligencia. No necesariamente son muy diferentes de las diversas especulaciones anteriores sobre cuándo las máquinas pueden tener una inteligencia similar a la humana.**
Uno de los "padres" del aprendizaje profundo, Yann LeCun, declaró: "Para que las máquinas aprendan de manera tan eficiente como los humanos y los animales, nos falta algo clave, solo que actualmente no sabemos qué es."
Durante años, la IA general (AGI) ha sido considerada "inminente", todo debido a la "falacia del primer paso". Yehoshua Bar-Hillel, un pionero en traducción automática, fue una de las primeras personas en hablar sobre las limitaciones de la inteligencia de las máquinas. Señaló que muchas personas creen que si alguien demuestra que una computadora puede realizar una tarea que hasta hace poco se pensaba que solo podía ser hecha por humanos, incluso si lo hace muy mal, solo se requiere un mayor desarrollo técnico para que complete la tarea perfectamente. La gente comúnmente piensa que solo es cuestión de esperar pacientemente hasta que finalmente se logre. Pero Bar-Hillel advirtió ya en la década de 1950 que esa no era la realidad, y la realidad ha demostrado repetidamente que no es así.
Lección tres: Pasar de no poder hacer algo a hacerlo mal, suele ser un camino mucho más corto que pasar de hacerlo mal a hacerlo muy bien.
En las décadas de 1950 y 1960, debido a la mejora en la velocidad de procesamiento de los semiconductores que impulsaban las computadoras, muchas personas cayeron en la "falacia del primer paso". A medida que el hardware evolucionaba cada año siguiendo la confiable trayectoria ascendente de la "ley de Moore", la gente asumía que la inteligencia de las máquinas también se desarrollaría en sincronía con el hardware.
Sin embargo, además de la continua mejora del rendimiento del hardware, el desarrollo de la IA ha entrado en una nueva etapa, introduciendo dos nuevos elementos: software y recolección de datos. Desde mediados de la década de 1960, los sistemas expertos (nota: un sistema de programa informático inteligente) han puesto un nuevo enfoque en la adquisición y programación del conocimiento del mundo real, especialmente el conocimiento de expertos en campos específicos y sus reglas empíricas (métodos heurísticos). Los sistemas expertos se hicieron cada vez más populares, y para la década de 1980, se estimaba que dos tercios de las empresas de la lista Fortune 500 aplicaban esta tecnología en sus actividades comerciales diarias.
Sin embargo, a principios de la década de 1990, esta fiebre de la IA se desvaneció por completo. Muchas startups de IA cerraron, y grandes empresas comenzaron a congelar o cancelar sus proyectos de IA. Ya en 1983, el pionero de los sistemas expertos, Ed Feigenbaum, señaló el "cuello de botella clave" que llevó a su desaparición: la expansión del proceso de adquisición de conocimiento, "que es un proceso muy complicado, que consume mucho tiempo y es costoso."
Los sistemas expertos también enfrentan el desafío de la acumulación de conocimientos. La necesidad de agregar y actualizar reglas continuamente los hace difíciles de mantener y costosos. También exponen las deficiencias de las máquinas de pensamiento en comparación con la inteligencia humana. Son "frágiles", cometen errores absurdos cuando se enfrentan a entradas inusuales, no pueden transferir su experiencia a nuevos campos y carecen de comprensión del mundo que los rodea. En el nivel más fundamental, no pueden aprender de ejemplos, experiencias y entornos como lo hacen los humanos.
Lección cuatro:** El éxito inicial, es decir, la amplia adopción por parte de empresas e instituciones gubernamentales, así como una gran cantidad de inversión pública y privada, incluso después de diez o quince años, no necesariamente puede generar una "nueva industria" duradera. Las burbujas a menudo estallan.**
En medio de altibajos, especulaciones y contratiempos, dos enfoques de desarrollo de IA completamente diferentes han estado compitiendo por la atención del mundo académico, los inversores públicos y privados, así como los medios de comunicación. Durante más de cuarenta años, el enfoque de IA simbólica basado en reglas ha dominado. Sin embargo, el conexionismo basado en instancias y impulsado por análisis estadísticos, como otro enfoque principal de IA, también tuvo su momento de gloria y fue muy popular a finales de la década de 1950 y finales de la década de 1980.
Antes del renacimiento del conexionismo en 2012, la investigación y el desarrollo de la IA fueron impulsados principalmente por el mundo académico. Una característica del mundo académico es la predominancia del dogmatismo (la llamada "ciencia convencional"), y siempre ha existido una elección entre el AI simbólico y el conexionismo. En 2019, Geoffrey Hinton, en su discurso del Premio Turing, pasó la mayor parte del tiempo hablando sobre las dificultades que él y unos pocos entusiastas del aprendizaje profundo enfrentaron a manos de los académicos de IA y aprendizaje automático convencionales. Hinton también menospreció deliberadamente el aprendizaje por refuerzo y el trabajo de sus colegas en DeepMind.
Solo unos años después, en 2023, DeepMind asumió el negocio de IA de Google (Hinton también se fue de allí), esto fue principalmente en respuesta al éxito de OpenAI, que también hizo del aprendizaje por refuerzo una parte de su desarrollo de IA. Los dos pioneros del aprendizaje por refuerzo, Andrew Barto y Richard Sutton, recibieron el Premio Turing en 2025.
Sin embargo, actualmente no hay señales de que, ya sea DeepMind o OpenAI, o las numerosas empresas "unicornio" dedicadas a la IA general (AGI), su enfoque vaya más allá del paradigma de los grandes modelos de lenguaje que prevalecen en la actualidad. Desde 2012, el enfoque del desarrollo de la IA ha cambiado de la academia al sector privado; sin embargo, todo el campo sigue obsesionado con una única dirección de investigación.
Lección cinco: No pongas todos tus "huevos" de IA en la misma "cesta".
Sin duda, Jensen Huang es un destacado CEO y Nvidia es una empresa excepcional. Hace más de diez años, cuando la oportunidad de la IA surgió de repente, Nvidia rápidamente aprovechó esta oportunidad, ya que la capacidad de procesamiento paralelo de sus chips (diseñados originalmente para renderizar videojuegos de manera eficiente) es muy adecuada para los cálculos de aprendizaje profundo. Jensen Huang se mantiene siempre alerta, les dice a los empleados: "Nuestra empresa está a solo 30 días de la quiebra."
Además de mantenerse alerta (¿recuerdas a Intel?), las lecciones aprendidas de los 80 años de desarrollo de la IA podrían ayudar a NVIDIA a navegar las fluctuaciones de los próximos 30 días o 30 años.
Artículos relacionados: Un vistazo a 10 empresas y modelos de IA que definen la actual revolución de la IA