NOTICIAS

10.07.25

IA con perspectiva de género: cuando la tecnología protege

Por CiuddadanIA

En un mundo donde la violencia digital se expande como una sombra detrás de cada pantalla, la inteligencia artificial emerge como una herramienta inesperada para contrarrestar el daño. Aunque diversos informes internacionales han advertido que los algoritmos pueden reproducir sesgos y amplificar situaciones de acoso en línea, un proyecto mexicano demuestra que, cuando se diseña con perspectiva de género, la tecnología puede convertirse en un escudo. OlimpIA, el primer chatbot desarrollado por y para mujeres víctimas de violencia digital, no solo ofrece asistencia inmediata, sino que redefine el papel de la IA en la lucha por los derechos humanos.

Lanzado en 2023 por la organización feminista Luchadoras, en colaboración con programadoras, abogadas y especialistas en datos, OlimpIA ha logrado brindar un acompañamiento efectivo, confidencial y libre de revictimización. Según cifras del Instituto Nacional de las Mujeres, más de 8.000 usuarias han recurrido a esta herramienta en México, un país donde, según Amnistía Internacional, el 72% de las mujeres ha sufrido algún tipo de violencia en línea. El reconocimiento internacional llegó en febrero de 2025, cuando la UNESCO le otorgó el Premio para la Igualdad de Género en Tecnología, destacando su potencial para replicarse en otros contextos.

De la desesperación a la acción legal: cómo funciona OlimpIA

Lo que distingue a OlimpIA de otros sistemas de IA no es solo su enfoque técnico, sino su comprensión profunda de las dinámicas de la violencia machista en el entorno digital. A diferencia de los chatbots comerciales, este sistema está entrenado para reconocer expresiones locales de acoso.

Cuando una mujer ingresa a la plataforma, la IA la guía paso a paso en la recolección de pruebas: desde capturas de pantalla hasta metadatos que muchas víctimas desconocen cómo preservar. Luego, el sistema genera un informe legal adaptado a la legislación de cada estado mexicano. En Jalisco, estos documentos han sido determinantes para 47 sentencias condenatorias, un hito en un país donde menos del 5% de los casos de violencia digital llegan a juicio.

El lado humano detrás del algoritmo

Aunque la tecnología es el eje del proyecto, lo que sostiene a Olimpia es una red de mujeres reales. Cuando el chatbot detecta un riesgo inminente —como amenazas de femicidio o extorsión—, deriva automáticamente el caso a la Red Nacional de Refugios, donde abogadas y psicólogas intervienen de inmediato. Esta combinación de automatización y acompañamiento humano ha sido clave para evitar tragedias, como el caso de Mariana Hernández, una estudiante de Puebla cuyo acosador intentó extorsionarla con imágenes íntimas. Gracias a que OlimpIA le indicó cómo bloquear cuentas falsas y presentar una denuncia penal en menos de 48 horas, el agresor fue detenido antes de escalar la violencia.

La seguridad es otro pilar fundamental. A diferencia de aplicaciones como WhatsApp o Telegram, donde los chats pueden ser hackeados o usados en contra de las víctimas, Olimpia cifra todos los datos y no almacena conversaciones. Esta precaución no es casual: el equipo aprendió de errores ajenos, como el de una plataforma de apoyo que fue infiltrada por agresores.

¿Por casa cómo andamos?

Mientras México avanza con herramientas como OlimpIA, el primer chatbot feminista de asistencia legal en casos de acoso en línea, otros países de América Latina enfrentan el mismo flagelo con estrategias dispares. Argentina, pionera en leyes de protección digital, aún lucha por traducir sus normas en acciones concretas.

Argentina se posiciona a la vanguardia legislativa en América Latina con una norma clave contra la violencia digital: la Ley 27.736, conocida como Ley Olimpia Argentina, sancionada en 2023, que introdujo modificaciones a la Ley N° 26.485 de Protección Integral contra las Mujeres. Se encuentra inspirada en la norma mexicana que lleva el mismo nombre y ha tipificado de forma clara y precisa qué se entiende por violencia digital: “toda conducta, por acción u omisión, basada en razones de género, que, de manera directa o indirecta, tanto en el ámbito público como en el privado, en el espacio analógico digital, basada en una relación desigual de poder, afecte su vida, libertad, dignidad, integridad física, psicológica, sexual, económica o patrimonial, participación política, como así también su seguridad personal. Quedan comprendidas las perpetradas desde el Estado o por sus agentes”. 

Por ejemplo, el pasado 13 de diciembre de 2024, la Justicia de Paz de Ituzaingó en el fallo “B. M. L. c/ L. P. A. s/ protección contra la violencias familiar” ha contribuido a la jurisprudencia sobre esta temática, al admitir una medida cautelar y dictar una orden de restricción contra la ex pareja de la denunciante, a raíz de que controlaba sus movimientos por las aplicaciones que ella utilizaba, apersonandose sin aviso en los lugares que frecuentaba y hackeando sus redes sociales. A su vez, se le ordenó cesar inmediatamente con las amenazas de publicar fotos y/o videos íntimos de la denunciante. 

En ese sentido, es muy valioso el aporte del juez sentenciante: “La violencia digital mediante redes sociales contra las mujeres, niñas y el colectivo LGTBQI representa un obstáculo para el acceso seguro a las comunicaciones e información digital, genera consecuencias psicológicas, emocionales y sociales para las víctimas y limita el pleno uso, goce y disfrute de sus derechos humanos; esta forma de violencia puede traducirse en violar la intimidad de las mujeres al filtrar imágenes o videos de contenido sexual sin su consentimiento, sembrar rumores falsos y difamar a una persona con el propósito de dañar su reputación u buscar avergonzarla en las redes sociales, crear perfiles falsos o usurpar su identidad para subir fotos, hacer comentarios ofensivos o incluso hacer ofertas sexuales en su nombre, denigrar a las mujeres al difundir fotos, memes, grabaciones en donde se busque intimidar, agredir, humillar o ridiculizar”.

En el mismo sentido falló el Juzgado Nº 4 de La Matanza, en la causa “G.L. c/ M.C.S.2M. s/ Protección contra la Violencia Familiar” donde se ordenó al acusado a que cese los actos de perturbación o intimidación contra la denunciante y “se abstenga de agredirla a través de llamados, mensajes de texto, audio y/o cualquier red social”. En esa línea, exhortó al condenado a que elimine, en el plazo de 48 horas, el contenido íntimo de la denunciante subido a redes y/o a nube, bajo apercibimiento de aplicarle una multa. 

El desafío ya no es crear nuevas soluciones, sino replicar experiencias y precedentes que han demostrado que es posible garantizar protección en entornos digitales. Democratizar la tecnología no es una opción: es una obligación en una región donde la desigualdad también se mide en conectividad, acceso y capacidad de respuesta frente a la violencia.

Algunos informes sobre sesgos de géneros:

  1. ONU Mujeres (2021)“Violencia contra las mujeres facilitada por la tecnología”
    https://www-unwomen-org.translate.goog/en/digital-library/publications/2024/09/technology-facilitated-gender-based-violence-developing-a-shared-research-agenda?_x_tr_sl=en&_x_tr_tl=es&_x_tr_hl=es&_x_tr_pto=tc
    Analiza cómo las tecnologías y plataformas digitales pueden ser utilizadas para hostigar, vigilar y dañar a mujeres, y el rol que juegan los algoritmos en ello.
  2. UNESCO (2023)“The Chilling: Global trends in online violence against women journalists”
    https://unesdoc.unesco.org/ark:/48223/pf0000377223
    Advierte sobre cómo los algoritmos de redes sociales priorizan contenido violento y sensacionalista, facilitando la exposición de las víctimas.

3-Amnistía Internacional + Element AI (2019)“Troll Patrol: Using AI to combat online abuse against women”
https://www.amnesty.org/es/latest/news/2020/09/twitter-failing-women-over-online-violence-and-abuse-2/
Estudio sobre el acoso sistemático a mujeres en Twitter, y cómo los algoritmos contribuyen a su visibilidad.