Warren Buffett dice que el peligro de la IA rivaliza con las armas nucleares: ‘El genio ha salido de la botella’

Crédito de la imagen: Casa Blanca de EE. UU. - Dominio público/Wiki Commons

Warren Buffett ha pasado toda una vida advirtiendo a los inversores que se alejen de las modas y se orienten hacia una toma de decisiones paciente y racional. Cuando dice que la inteligencia artificial conlleva peligros a la escala de las armas nucleares, no está hablando de ciencia ficción, sino que está señalando un riesgo del mundo real que, en su opinión, los mercados y los responsables políticos aún están subestimando. Su descripción de la IA como un genio que no se puede volver a meter en la botella captura tanto la inevitabilidad de la tecnología como la dificultad de contener sus peores usos.

La alarma de Buffett no es un rechazo a la innovación, sino un juicio sobre el poder. Las armas nucleares cambiaron la geopolítica al dar a un pequeño número de actores la capacidad de causar daños catastróficos a una velocidad sin precedentes. En su opinión, los sistemas avanzados de IA están empezando a concentrar un tipo similar de influencia en manos de quienes controlan los modelos, los datos y la capacidad de cálculo, y eso debería preocupar a cualquiera que se preocupe por la estabilidad financiera, la seguridad nacional o la confianza básica en la información.

Por qué Buffett ve un “enorme potencial de daño” en la IA

Cuando Warren Buffett habla de riesgo, suele hablar en términos de probabilidades y compensaciones, no en absolutos. Eso es lo que hace que su descripción de la inteligencia artificial como algo que tiene un “enorme potencial de daño” sea tan llamativa. En una reciente reunión de accionistas de Berkshire Hathaway, enmarcó la IA como una fuerza transformadora que podría remodelar la forma en que las personas trabajan con el dinero y en la vida, pero también destacó que las mismas capacidades que la hacen poderosa para la productividad pueden hacerla poderosa para el abuso, una tensión que ha destacado en observaciones detalladas sobre la tecnología.

Buffett nunca se ha apresurado a adoptar nuevas tecnologías, pero no está descartando la IA como una moda pasajera. En cambio, está advirtiendo que la velocidad y la escala a la que puede operar la IA multiplican los riesgos tradicionales. En comentarios anteriores, comparó la tecnología con un genio que, una vez liberado, no se puede volver a meter, subrayando que el mundo tendrá que vivir con las consecuencias de los sistemas que pueden generar texto, imágenes y decisiones convincentes a escala industrial, una comparación que agudizó cuando dijo que el peligro de la IA rivaliza con el de las armas nucleares en un análisis separado de sus puntos de vista.

La analogía de las armas nucleares y el problema del “genio”

La analogía nuclear de Buffett no es casual. Ha descrito la invención de las armas nucleares como un momento en que la humanidad creó una herramienta tan destructiva que su mera existencia cambió el comportamiento, incluso cuando nunca se utilizó. En su opinión, la IA avanzada es “algo similar”, una tecnología que, una vez desarrollada, será perseguida por múltiples actores independientemente de la regulación o la ética, porque los incentivos estratégicos y económicos son demasiado fuertes, un punto que ha planteado al explicar que ve la IA como un genio que ya está “en parte fuera de la botella” en comentarios televisados.

Esa metáfora importa porque desplaza la conversación de si la IA debería existir a cómo las sociedades gestionan una tecnología que ya está suelta en el mundo. Buffett ha dicho que la IA “la va a hacer alguien”, lo que sugiere que, incluso si un país o una empresa se ralentizara, otros seguirían adelante. En entrevistas sobre su advertencia, ha enfatizado que esta dinámica podría dejar a la gente deseando que la tecnología nunca se hubiera desarrollado, incluso cuando sigan confiando en ella, una tensión capturada en su comparación de los riesgos de la IA con las armas nucleares en la cobertura que lo cita diciendo que el genio está fuera de la botella y que los inversores deben prepararse para la posibilidad de que sus propias inversiones en IA se vuelvan en su contra, una preocupación destacada en los informes de Jake Conley.

Estafas, deepfakes y la erosión de la confianza

A pesar de toda la charla sobre el riesgo existencial, las preocupaciones más concretas de Buffett sobre la IA comienzan con el fraude. Ha señalado la forma en que los sistemas generativos pueden imitar voces y rostros de forma tan convincente que la gente común puede no ser capaz de notar la diferencia entre una llamada telefónica real de un miembro de la familia y una sintética. En declaraciones públicas, ha advertido que la IA aumenta drásticamente el “potencial” de las estafas, especialmente las que se dirigen a personas vulnerables o explotan marcas de confianza, una preocupación que expuso al discutir la facilidad con la que los delincuentes podrían armar la tecnología en entrevistas de difusión.

El temor de Buffett no es solo por las pérdidas individuales, sino por la confianza sistémica. Si la gente no puede confiar en lo que ve y oye, los mercados que dependen de la reputación y la información verificada se vuelven más frágiles. Ha descrito escenarios en los que los mensajes generados por la IA podrían suplantar a ejecutivos, reguladores o incluso a él mismo, engañando a los inversores para que muevan dinero o realicen operaciones basadas en instrucciones fabricadas. La cobertura local de sus comentarios ha subrayado su advertencia de que las estafas habilitadas por la IA podrían extenderse más rápido y más barato que cualquier cosa vista antes, con un informe que lo cita sobre el “enorme potencial” de fraude utilizando la IA y señalando su comparación entre la tecnología y las armas nucleares en un segmento transmitido por la televisión regional.

Lo que el historial de Buffett dice a los inversores sobre el riesgo de la IA

El escepticismo de Buffett hacia la IA se sitúa en un largo patrón de cautela en torno a las innovaciones financieras complejas. Cuando los activos especulativos como las criptomonedas se dispararon, se negó a participar, y cuando un promotor de fondos indexados de criptomonedas afirmó que su producto superaría el rendimiento de su cartera, la empresa detrás del índice dijo que CNBC se puso en contacto con la oficina de Warren Buffett para obtener comentarios, pero no recibió respuesta. Su silencio en ese caso fue coherente con una filosofía más amplia: si no entiende la economía a largo plazo o el perfil de riesgo de un producto, prefiere mantenerse alejado.

Esa historia importa porque muestra cómo traduce la incertidumbre tecnológica en decisiones de inversión. Durante la crisis financiera, Buffett utilizó el balance de Berkshire Hathaway para estabilizar la América corporativa, y más tarde, cuando la empresa pasó a celebrar reuniones virtuales de accionistas, los informes señalaron que, en lugar de un estadio lleno, Buffett simplemente recibiría preguntas de los accionistas y de algunos periodistas en un formato digital que se transmitiría en directo exclusivamente en Yahoo Finance, un cambio descrito en detalle en la cobertura de la evolución de las comunicaciones de Berkshire. En ambos casos, se adaptó a las nuevas herramientas manteniendo intactos sus principios básicos de riesgo, un patrón que ahora da forma a cómo habla de la IA: abrazar lo que es útil, pero nunca olvidar lo rápido que la complejidad puede convertirse en fragilidad.

Reguladores, ejecutivos y el estándar de Buffett para la IA

Las advertencias de Buffett ya están influyendo en la forma en que algunos ejecutivos y responsables políticos enmarcan la supervisión de la IA. Cuando compara el perfil de riesgo de la tecnología con el de las armas nucleares, está argumentando efectivamente que la disciplina ordinaria del mercado no es suficiente, que debe haber una capa de gobernanza que trate la IA como un activo estratégico con implicaciones nacionales y mundiales. En informes recientes sobre sus comentarios, se le ha citado destacando que el genio está fuera y que los inversores deben pensar detenidamente en quién controla los modelos y qué ocurre si esos sistemas se comportan de forma que sus creadores no anticiparon, un tema que recorre relatos detallados de su comparación nuclear.

Para los consejos de administración de las empresas, el estándar de Buffett sobre la IA podría ser el siguiente: tratar cada despliegue como si pudiera ser mal utilizado a escala, asumir que los adversarios acabarán teniendo acceso a herramientas similares y construir controles que no dependan del comportamiento perfecto de cada usuario. Para los reguladores, su analogía con las armas nucleares sugiere que los códigos voluntarios y la autorregulación de la industria no serán suficientes, especialmente cuando los sistemas de IA empiecen a cruzarse con las infraestructuras críticas, la defensa o las tuberías centrales de los mercados financieros. A medida que los mercados de Jan digieren sus últimas advertencias, y a medida que reporteros como Jake Conley siguen rastreando cómo se posicionan BRK y otras grandes empresas, veo el mensaje de Buffett como uno simple envuelto en un lenguaje duro: el lado positivo de la IA es real, pero también lo es el lado negativo, y pretender lo contrario no es prudencia, es negación.

Más de Morning Overview