TAPA DEL DÍA - Sam Altman, CEO de OpenAI y figura central en el ecosistema tecnológico mundial, volvió a encender la alarma sobre el futuro de la inteligencia artificial. En declaraciones recientes, el empresario estadounidense planteó que el desarrollo vertiginoso de esta tecnología abre oportunidades inmensas, pero también riesgos que podrían ser catastróficos si no se establecen regulaciones y medidas de seguridad firmes. El creador de ChatGPT, plataforma que marcó un antes y un después en el campo de la inteligencia artificial generativa, sostuvo que no se trata de escenarios futuristas o de ciencia ficción. "Son amenazas reales, palpables y cercanas", afirmó Altman, al enumerar tres grandes peligros que, según él, merecen una atención urgente. Los tres riesgos de la IA, según Sam Altman 1. El uso por actores maliciosos El primer riesgo está vinculado a la utilización de sistemas avanzados por parte de grupos criminales, terroristas o incluso gobiernos hostiles. Altman advirtió que la IA aplicada a campos sensibles como la biotecnología o la ciberseguridad podría facilitar la creación de armas biológicas, ataques financieros masivos o la interrupción de infraestructuras críticas como redes eléctricas. 2. La pérdida de control humano El segundo riesgo es menos probable, pero mucho más devastador: la posibilidad de perder el control sobre sistemas demasiado poderosos. Se trata de un escenario en el cual las máquinas dejen de obedecer a las órdenes humanas o desarrollen metas propias, poniendo en jaque la seguridad global. Por esta razón, laboratorios y empresas tecnológicas invierten cada vez más en lo que se denomina “alineación de la IA”, el esfuerzo por garantizar que los sistemas actúen bajo parámetros compatibles con los valores humanos. 3. La “dominación silenciosa” Finalmente, Altman describió lo que llama la “dominación silenciosa”. Según explicó, el riesgo radica en que, a medida que la IA se vuelva más precisa e influyente en la vida diaria, tanto las personas como incluso los líderes políticos dependan excesivamente de sus recomendaciones. Esto podría desembocar en un problema de gobernanza: si los sistemas son cada vez más complejos y opacos, ¿quién tiene realmente el control de las decisiones? “El desafío no es solo técnico, sino político y ético. Si no entendemos cómo y por qué decide un sistema de IA, los humanos podemos perder la última palabra”, subrayó Altman. Un debate que recién comienza El diagnóstico del CEO de OpenAI refleja la tensión de una era en la que la inteligencia artificial promete transformar la medicina, la educación y la economía, pero también plantea dilemas inéditos en materia de seguridad, ética y poder. Gobiernos, empresas y organismos internacionales ya discuten cómo regular un campo que avanza mucho más rápido que la capacidad de las leyes para adaptarse. ¿Quién es Sam Altman? Nacido en Chicago y con 40 años de edad, Sam Altman es considerado uno de los empresarios más influyentes de Silicon Valley. Aunque inició estudios en informática, abandonó la universidad para dedicarse al mundo emprendedor. Fue presidente de Y Combinator, la aceleradora de startups más prestigiosa del mundo, antes de ponerse al frente de OpenAI en 2019. Bajo su liderazgo, la compañía desarrolló ChatGPT, un modelo de inteligencia artificial generativa que cambió la relación entre las personas y la tecnología. Su figura divide opiniones: para algunos, es un visionario que impulsa la innovación de manera responsable; para otros, simboliza la tensión entre el desarrollo privado y la necesidad de regulaciones públicas. Opinión pública: Las advertencias de Altman reflejan un dilema global: la humanidad podría estar creando la herramienta más poderosa de la historia, sin haber definido aún cómo controlar sus consecuencias. El desafío no es frenar el progreso, sino garantizar que este avance esté al servicio de la sociedad y no de intereses que puedan ponerla en riesgo. TAPA DEL DÍA