A Fondo
Las leyes de la robótica en la era de la IA

El autor de ciencia ficción Isaac Asimov presentó en 1942 sus Tres Leyes de la Robótica en su cuento «Runaround». Estas leyes se popularizaron posteriormente en su influyente colección de cuentos «Robot» que fueron llevados al cine. Aunque extraídas de obras de ficción, estas leyes han moldeado los debates sobre la ética de los robots y por ende de la inteligencia artificial durante décadas.
- Primera ley: Un robot no puede dañar a un ser humano ni, por inacción, permitir que un ser humano sufra daño.
- Segunda Ley: Un robot debe obedecer las órdenes que le dan los seres humanos excepto cuando dichas órdenes entren en conflicto con la Primera Ley.
- Tercera Ley: Un robot debe proteger su propia existencia siempre y cuando dicha protección no entre en conflicto con la Primera o la Segunda Ley.
Nuevas leyes de la robótica
Las leyes originales han sido modificadas y desarrolladas por otros autores. El propio Asimov hizo ligeras modificaciones para desarrollar aún más cómo los robots interactuarían con los humanos y entre ellos, añadiendo una cuarta ley:
- Ley Cero: Un robot no puede dañar a la humanidad o, por inacción, permitir que la humanidad sufra daños.
Teniendo en cuenta que los robots virtuales siguen ganando presencia a medida que los sistemas de IA se están volviendo cada vez más capaces y sofisticados, algunos tecnólogos han encontrado útil el marco de Asimov para considerar las salvaguardias necesarias para la IA que interactúa con los humanos.
La cuestión es que las tres leyes de la robótica y su extensión no son suficientes ante la revolución que plantea la inteligencia artificial y una era de colaboración entre humanos e IA sin precedentes, algo que Asimov difícilmente podría haber imaginado. El rapidísimo avance de las capacidades generativas de la IA, en particular en la generación de lenguaje e imágenes, ha planteado desafíos que van más allá de las preocupaciones originales de Asimov sobre el daño físico y la obediencia.
Deepfakes, desinformación, estafas y malware
La proliferación del engaño basado en IA es particularmente preocupante. Según el Informe sobre Delitos en Internet del FBI , los delitos cibernéticos relacionados con la manipulación digital y la ingeniería social provocaron pérdidas superiores a los 10.300 millones de dólares. El Panorama de Amenazas de 2023 de la Agencia de la Unión Europea para la Ciberseguridad destacó específicamente los deepfakes (medios sintéticos que parecen auténticos) como una amenaza emergente para la identidad y la confianza digitales.
Y los ciberdelincuentes los están utilizando masivamente a modo de ciberataques, de hecho, fue la amenaza que más aumentó en 2024. Y ello fue posible gracias a herramientas GenAI baratas y ampliamente accesibles que pueden manipular contenido de audio, video e imagen. En un año electoral crucial, durante el cual más de cuatro mil millones de personas de todo el mundo tuvieron que ir a votar, la tecnología deepfakes se utilizó como arma para sembrar confusión y desconfianza. Aunque muchos deepfakes relacionados con las elecciones que circularon fueron relativamente fáciles de refutar, contaminaron el ecosistema de información electoral.
A medida que la IA continúa avanzando, la desinformación digital también se está infiltrando en las empresas, lo cual plantea riesgos en forma de pérdidas financieras, daños a la reputación y espionaje corporativo que se teme seguirán creciendo este 2025. En lo que llaman ‘el lado oscuro de la IA’, la proliferación de herramientas de IA generativa ha dificultado cada vez más la detección y distinción de lo falso y lo verdadero. Y es que los artículos generados por IA son tan persuasivos o más que la propaganda tradicional, y usar IA para crear contenido convincente requiere muy poco esfuerzo.
Las botnets hoy pueden usar texto, voz y video generados por IA para crear falsas percepciones de apoyo generalizado a cualquier tema político. Los bots ahora pueden hacer y recibir llamadas telefónicas mientras se hacen pasar por personas. Las llamadas fraudulentas con IA que imitan voces familiares son cada vez más comunes, y en cualquier momento, podemos esperar un auge en las estafas de videollamadas basadas en avatares superpuestos renderizados por IA, lo que permite a los estafadores hacerse pasar por seres queridos y dirigirse a las poblaciones más vulnerables.
Cuarta ley de la robótica para una IA confiable
El eminente informático Stuart Russell argumentó en su libro de 2019, ‘Human Compatible’, que la capacidad de los sistemas de IA para engañar a los humanos representa un desafío fundamental para la confianza social. Y es que en la época de Asimov nadie podía imaginar cómo los agentes artificiales podían usar herramientas de comunicación en línea y avatares para engañar a los humanos.
Por ello, algunos autores han propuesto añadir una nueva norma a las leyes de Asimov:
- Cuarta ley: Un robot o IA no debe engañar a un humano haciéndose pasar por un ser humano.
La nueva era de la IA necesita límites claros. Científicos, ingenieros, intelectuales, empresarios, políticos y grandes nombres de la tecnología mundial, se juntaron en un grupo de más de 1.000 personas para impulsar una carta abierta donde solicitaban la suspensión durante seis meses del desarrollo de los mayores proyectos de Inteligencia Artificial, ante los «profundos riesgos para la sociedad y la humanidad» que podían plantear sin el control y gestión adecuados.
Poco de ello se ha tenido en cuenta y la IA avanza imparable hasta no se sabe donde. Si bien la colaboración entre humanos e IA puede ser constructiva, el engaño de la IA socava la confianza y provoca pérdida de tiempo, angustia emocional y mal uso de recursos. Los agentes artificiales deben identificarse para garantizar que nuestras interacciones con ellos sean transparentes y productivas. El contenido generado por IA debe estar claramente marcado, a menos que haya sido editado y adaptado significativamente por un humano.
Además, la implementación de esta Cuarta Ley requeriría:
- Divulgación obligatoria de IA en interacciones directas.
- Etiquetado claro del contenido generado por IA.
- Normas técnicas para la identificación de IA.
- Marcos jurídicos para la aplicación de la ley.
- Iniciativas educativas para mejorar la alfabetización en IA.
Iniciativas políticas recientes, en particular la Ley de IA de la Unión Europea, que incluye disposiciones que exigen transparencia en las interacciones de la IA y la divulgación transparente del contenido generado por ella, son un avance. También investigaciones para encontrar formas fiables de implementar marcas de agua o detectar texto, audio, imágenes y vídeos generados por IA. Pero todavía estamos muy lejos de esa IA que alimente de manera ética, responsable y segura a la nueva generación de robots.
* Imágenes generadas por IA.
* Más información | Dariusz Jemielniak – IEE Spectrum
-
A FondoHace 7 días
Las 10 máquinas más poderosas del TOP500 de Supercomputadoras
-
NoticiasHace 6 días
AMD presenta las aceleradoras de IA, Instinct MI350
-
NoticiasHace 6 días
Salesforce Marketing Cloud Next, una solución de IA agéntica para el sector del marketing
-
NoticiasHace 7 días
Dinamarca cambiará Windows por Linux y Office por LibreOffice para depender menos de Microsoft