El modelo de Milei para la IA : qué hacen Argentina y otros países con el avance de esta tecnología

Durante su paso por el Foro de Davos, el presidente Javier Milei no dejó grandes definiciones y quizás la más contundente fue que el desarrollo de la inteligencia artificial (IA) no debe tener ningún tipo de control estatal, una postura que no solo tiene ya un debate incipiente en Argentina, sino que además se mete en una pulseada geopolítica y económica, donde la regulación es el elemento clave.

Para Milei, el avance de la IA es netamente positivo, porque «es un potenciador de rendimientos crecientes y con ello mayor crecimiento y bienestar» económico, según indicó durante su exposición en el Foro Económico Mundial este miércoles.

«Lo más responsable que pueden hacer los estados respecto al tema es dejar de fastidiar a quienes están creando un mundo mejor», sentenció el Presidente y afirmó que «todos los temores asociados a escenarios distópicos son una tontería», porque la puesta en marcha requiere de «insumos y recursos financieros reales», por lo que su expansión «estará limitada por las dotaciones iniciales».

Milei se metió así en un debate que se da en todo el mundo: qué hacer con una tecnología que ofrece enormes ventajas, pero que también conlleva riesgos, como son los casos de «desinformación» que se ven con frecuencia en las redes sociales y que muchas veces tienen fines político-partidistas, además del dilema que plantea sobre el empleo y el mundo laboral.

Los países empezaron a adoptar enfoques distintos para la regulación legal sobre la IA que reflejan sus propios intereses económicos y políticos. En ese marco, se dividen en tres modelos principales: uno basado en el riesgo, otro en la innovación con marcos regulatorios flexibles que se limitan a «guiar» a la industria y, por último, el modelo de control estatal.

Javier Milei y una definición clave sobre la IA: el debate argentino y el caso de Estados Unidos 

La postura del gobierno de Milei se inscribe en el segundo modelo, el que privilegia la innovación con la menor regulación posible. Esto lo ubica mucho más en línea con lo que está haciendo Estados Unidos en materia de inteligencia artificial que con la regulación basada en el riesgo implementada por la Unión Europea.

En Estados Unidos hay rechazo a una ley federal única y una apuesta por la flexibilidad. El país es una especie de mosaico regulatorio para la IA: mientras estados como California tienen leyes que apuntan principalmente contra los sesgos de los algoritmos, el gobierno federal utiliza el Marco de Gestión de Riesgos de IA del NIST (Instituto Nacional de Estándares y Tecnología), que es voluntario y que apunta a guiar a la industria, pero sin poner trabas a la innovación.

Lógicamente, la prioridad de la Casa Blanca es evitar que China los supere en materia tecnológica y evitar que modelos potentes de IA queden en manos del gigante asiático, como se pudo ver en la reciente controversia que se generó por la actividad de la red social Tik Tok (de capitales chinos) en EE.UU.

La idea de Milei sobre el avance de la IA está alineada con el modelo norteamericano pero es incluso más liberal. «No queremos tiros en los pies con regulaciones que no le importan a nadie», señaló en ocasiones pasadas el principal asesor del Presidente en esta materia, Demian Reidel, quien cree que Argentina puede convertirse en «un polo de IA» importante, para lo que necesita evitar regulaciones que ahuyenten la inversión privada.

De hecho, Milei y Reidel aprovecharon la nueva reunión del Foro Económico de Davos para presentar un paper titulado «Cuando regulación mata crecimiento», que plantea una teoría económica en la cual se toca el tema de los desafíos que tienen hoy las empresas tecnológicas y la inteligencia artificial frente a las regulaciones estatales. Según trasciende, aspiran a ganar el Nóbel de Economía.

En cualquier caso, esta postura del Gobierno quedó clara en el debate que ya se inició en el Congreso a fines del año pasado en torno a un proyecto que busca fijar un marco legal para el desarrollo de la IA en el país enfocado en el riesgo. El oficialismo rechazó la creación de cualquier agencia de control y defendió la libre competencia en la industria del software -hoy el tercer complejo exportador- y la responsabilidad civil individual en el uso de la IA.

Varios de los bloques opositores más duros, en tanto, señalan que se necesita una ley que proteja los datos personales y penalice la llamada «discriminación algorítmica» o «sesgo algorítmico» (decisiones de los sistema de IA que puedan tratar injustamente a las personas y afectarlas en el empleo, la educación, la atención médica y otras áreas- por una cuestión de seguridad nacional. La iniciativa de este sector busca replicar el modelo europeo.

¿Cómo es la regulación de la Unión Europea sobre la IA?: el enfoque del riesgo

La UE empezó 2026 con su Ley de IA plenamente vigente, tras varios años de debates. El modelo que adoptó se basa principalmente en el riesgo para clasificar a los sistemas de IA. En ese marco, los divide en cuatro categorías: riesgo inaceptable, alto riesgo, riesgo limitado y riesgo mínimo.

En la categoría más alta, se establece la prohibición de sistemas de puntuación social y vigilancia biométrica masiva en tiempo real, con pocas excepciones. En la de «alto riesgo» se incluyen áreas como educación, empleo o infraestructura y se indica que los sistemas deben pasar por auditorías. En el «riesgo limitado» rige la obligación de informar a los usuarios cuando interactúen con una IA y en el «riesgo mínimo» no hay nuevas restricciones.

De esta forma, las empresas tecnológicas tienen una gran cantidad de condiciones a cumplir para operar en Europa, desde el etiquetado obligatorio de contenidos generados por IA hasta auditorías. Pero esta regulación más estricta también tiene, igualmente, objetivos económicos relacionados con el mercado interno de la UE.

Al fijar estándares que se ubican entre los más altos del mundo, la UE fuerza a que tanto las empresas estadounidenses como las chinas tengan que adaptar los modelos de sus sistemas de IA a estas normas para no quedarse afuera de un mercado de casi 450 millones de personas.

El control de China: la IA como herramienta al servicio del Estado

Como era de suponer, en China el modelo de regulación es el que contempla mayor control estatal sobre el desarrollo de la inteligencia artificial. Se sabe que para Beijing, nada puede estar por encima de la autoridad política, es decir, del Estado.

La regulación en el gigante asiático apunta principalmente a la IA generativa (la que crea contenido original de texto, imágenes, música y más) y a los algoritmos de recomendación (aquellos que usan datos sobre los gustos y comportamiento de los usuarios para sugerir contenido o productos).

Por un lado, el marco legal chino exige que los contenidos generados por IA reflejen los «Valores Socialistas Nucleares», como les llaman a los principios que promueve el Partido Comunista Chino, y que no menoscaben el poder del Estado.

Por el otro, se establece un criterio de transparencia que obliga a las empresas de tecnología y desarrolladores de IA a registrar sus algoritmos ante el órgano regulador del Estado y someterse a evaluaciones de seguridad. A su vez, China busca exportar su modelo a otros países mediante el uso de sistemas de código abierto.

Claramente, regulaciones como las de China e incluso como la Unión Europea están lejos de la idea que defiende Javier Milei en el marco del debate argentino sobre el avance de la IA y que buscó en el Foro de Davos empezar a promover a nivel mundial. Para el Gobierno, la desregulación es el mejor modelo, sobre todo para buscar inversiones en un área que hoy es clave para la economía y estratégica para la política a nivel global.

Más Noticias

Noticias
Relacionadas

Juan Pablo Moreno: Estamos ante una reescritura de los ciclos del Bitcoin

En un escenario global atravesado por tensiones políticas...

El cerro cedió 38 metros en apenas un minuto y medio

En un clima de tensión y angustia, el...

Cachanosky citó a Ortega para criticar el discurso de Milei en Davos: «La claridad es la cortesía del filósofo»

El economista Roberto Cachanosky criticó el discurso del...