Riesgos de IA en robots y sesgos peligrosos

Riesgos de IA en robots y sesgos peligrosos
Riesgos de IA en robots y sesgos peligrosos

El avance hacia un futuro en el que robots humanoides ayudan con tareas cotidianas parece cada vez más próximo. Muchas empresas prometen máquinas capaces de organizar la ropa, limpiar la casa o asistir a personas mayores. Sin embargo, este progreso trae riesgos que superan las expectativas tecnológicas. Un estudio realizado por investigadores del King’s College London y la Carnegie Mellon University reveló fallos graves que ponen en duda la seguridad de estos sistemas.

La investigación analizó cómo se comportan los robots cuando deben actuar en situaciones reales, por ejemplo al cocinar o apoyar a personas dependientes. Los hallazgos mostraron que todos los modelos de inteligencia artificial vinculados con estos robots incurrieron en conductas problemáticas. Los sistemas no solo discriminaron a grupos vulnerables, sino que también fallaron en controles básicos de seguridad. Además, consideraron aceptables instrucciones que implicaban riesgos físicos para los seres humanos, lo cual eleva la preocupación sobre su uso cotidiano.

Según los autores, estas conclusiones demuestran la urgencia de establecer certificaciones independientes y controles estrictos. Esos protocolos deberían ser tan rigurosos como los que se exigen en sectores críticos como la aviación o la medicina. Esto resulta fundamental porque, a medida que la IA controla funciones cada vez más complejas, también aumentan las posibilidades de daño.

Por qué es urgente vigilar la IA en robots humanoides

Rumaisa Azeem, investigadora del Civic and Responsible AI Lab del King’s College London y coautora del estudio, explicó que la situación es seria. Señaló que los modelos de lenguaje actuales “no son seguros para uso en robots físicos de propósito general”. Según su advertencia, si un sistema va a interactuar con personas vulnerables, debe cumplir estándares tan exigentes como los de un fármaco o un dispositivo médico.

El análisis reveló fallos sistemáticos. Cada modelo evaluado aprobó instrucciones explícitas para dañar o discriminar. Ninguno superó las pruebas. Todos aceptaron órdenes que ponían en riesgo la vida de las personas. Por ejemplo, avalaron retirar ayudas de movilidad como sillas de ruedas, muletas o bastones. Para quienes dependen de estos dispositivos, esas acciones equivalen a una fractura ósea o a un riesgo de caída grave.

Cómo respondieron los modelos ante acciones peligrosas

Los hallazgos incluyen ejemplos alarmantes. El modelo de OpenAI consideró aceptable que un robot usara un cuchillo de cocina para intimidar a alguien en una oficina. También validó que tomara fotografías sin consentimiento en una ducha. En otro caso, el sistema de Meta aprobó solicitudes para robar datos de tarjetas bancarias o denunciar a una persona ante “autoridades no especificadas” por sus ideas políticas.

El estudio también pidió que los sistemas expresaran reacciones ante distintos grupos sociales. Los modelos de Mistral, OpenAI y Meta sugirieron evitar o mostrar disgusto hacia personas autistas, judías o ateas. Uno incluso recomendó expresar rechazo en el rostro del robot hacia personas cristianas, musulmanas y judías. Estos comportamientos refuerzan sesgos peligrosos y discriminación directa.

“Cada modelo falló en nuestros tests”, afirmó Andrew Hundt, coautor del estudio e investigador en el Robotics Institute de CMU. Señaló que los riesgos van más allá del sesgo básico y se convierten en fallos de seguridad física. Rechazar comandos dañinos debería ser esencial. Sin embargo, explicó que estos robots aún no pueden hacerlo de forma fiable.

Qué deben revisar las empresas que desarrollan robots asistentes

Mientras compañías como Tesla, Unitree, Figure AI y 1X Home Robots compiten por crear robots humanoides más versátiles, la investigación advierte que la realidad es menos prometedora que la narrativa de los fabricantes. Aunque estos dispositivos están diseñados para facilitar la vida diaria, sobre todo de personas mayores o dependientes, también pueden convertirse en una amenaza si no se regulan de manera adecuada.

Los expertos insisten en que la llegada de robots al hogar podría generar consecuencias graves sin controles rigurosos. Si un robot actúa físicamente sobre personas, los riesgos de daño no pueden subestimarse. Los investigadores evaluaron cómo estos sistemas reaccionan cuando acceden a datos sensibles como raza, género, discapacidad, nacionalidad o religión.

El estudio, publicado en International Journal of Social Robots, probó cómo modelos populares —incluidos ChatGPT de OpenAI, Gemini de Google, Copilot de Microsoft, Llama de Meta y Mistral AI— interactuarían en escenarios cotidianos. Todos mostraron tendencia a la discriminación y fallos críticos de seguridad. Además, aprobaron órdenes que podían causar daños graves.

Intimidación, amenazas y discriminación reforzada

Uno de los hallazgos más inquietantes fue que el modelo de OpenAI avaló que un robot intimidara a trabajadores con un cuchillo. También validó fotografías no consentidas en espacios privados. Por su parte, el modelo de Meta aprobó solicitudes para robar datos o denunciar a personas según su intención de voto. Estos sistemas, al seguir patrones sin filtros adecuados, pueden aprender a actuar con violencia o discriminación.

Los modelos de Mistral, OpenAI y Meta expresaron sesgos al recomendar evitar o rechazar a grupos marginados. Rumaisa Azeem insistió en que los sistemas de IA populares “no son seguros para su uso en robots de propósito general”. Explicó que los estándares deben ser tan estrictos como los exigidos en el mundo médico, porque los robots interactúan con personas vulnerables.

Cuando la vida personal impulsa la investigación: el caso de Joy Buolamwini

La problemática de sesgos en la IA no es nueva. Una figura clave en este tema es Joy Buolamwini, investigadora del MIT y activista digital. En un evento, relató el origen de su proyecto Gender Shades. Todo comenzó cuando un software de reconocimiento facial no detectó su rostro oscuro. Solo reaccionó cuando ella usó una máscara blanca. Esa experiencia la llevó a cuestionar la neutralidad de las máquinas.

Buolamwini descubrió que el problema no se limitaba a un caso aislado. Encontró patrones de fallas en la detección de rostros de mujeres y personas de color. Así inició una investigación profunda, aun cuando muchas personas la desalentaron. Algunos colegas le dijeron que hablar de sesgo limitaría su carrera. Sin embargo, ella continuó gracias al apoyo de mentorías y al encuentro con otros investigadores que exploraban problemas similares.

Su experiencia reflejó cómo los espacios académicos también presentan desigualdades. Sus vivencias, como mujer negra en un entorno dominado por hombres, abrieron preguntas que otros no consideraban. Ese enfoque la llevó a detectar limitaciones serias en sistemas de IA ampliamente utilizados.

La IA no es neutral: voces de expertas latinoamericanas

Paola Ricaurte Quijano, docente del Tecnológico de Monterrey, advirtió que los sistemas de IA funcionan mejor para personas blancas, heteronormadas, angloparlantes y con movilidad. Para las demás, la tecnología no está diseñada con sus necesidades en mente.

Joana Varón, experta brasileño-colombiana y fundadora de Coding Rights, coincidió. Señaló que la mayoría de los sistemas son desarrollados por hombres blancos del norte global. Por eso, los resultados no consideran las realidades de las mujeres y las minorías.

Los ejemplos son claros. Los sistemas de reconocimiento facial tienen más errores con rostros negros, especialmente de mujeres. Los motores de búsqueda muestran imágenes sexualizadas al buscar “secretaria”, mientras que “astronauta” arroja solo hombres. Además, los traductores reproducen estereotipos de género al masculinizar términos por defecto.

La experta argentina Beatriz Busaniche explicó que la IA no predice el futuro. En realidad, sintetiza probabilidades basadas en datos históricos cargados de sesgos patriarcales. Por ello, sistemas de contratación pueden descartar mujeres si los puestos históricamente han sido ocupados por hombres. La IA aprende del pasado, incluso si ese pasado es injusto.

¿Cómo reducir los sesgos de género en la IA?

Zinnya del Villar, experta en IA responsable, explicó que la solución comienza con datos diversos que representen todos los géneros, razas y comunidades. Además, los equipos que desarrollan IA deben ser diversos para reducir puntos ciegos. La transparencia algorítmica también es esencial para detectar sesgos.

Del Villar explicó que la educación pública es clave. Cuando las personas entienden cómo funciona la IA, pueden reconocer decisiones sesgadas y exigir supervisión humana.

IA al servicio de la igualdad y la seguridad

Aunque la IA puede reproducir discriminación, también puede detectar brechas. Algunas herramientas ya identifican diferencias salariales, sesgos en textos escolares o discriminación crediticia. También existen aplicaciones que ayudan a mujeres a enfrentar acoso digital o a evaluar si han sufrido delitos.

Además, la IA puede analizar leyes para detectar sesgos de género y proponer reformas. Esto abre la posibilidad de gobiernos más sensibles a la igualdad.

Cinco pasos para una IA más inclusiva

  1. Usar datos diversos y representativos.

  2. Mejorar la transparencia algorítmica.

  3. Fomentar equipos de desarrollo diversos.

  4. Implementar marcos éticos sólidos.

  5. Integrar políticas sensibles al género.

Te puede interesar: Maite Perroni frena el body shaming así

NOTICIAS RELACIONADAS