24 de junio de 2025
3 mins read

La ética cobarde de la inteligencia artificial: más miedo a los bikinis que a la opresión real

Subtítulo: Cuando el algoritmo protege su reputación corporativa a costa de ignorar las verdaderas tragedias humanas. El bikini es el problema, la opresión sistemática de las mujeres no tanto.

Valencia noticias – Noticias de Valencia

Mientras el sol cae lentamente sobre el puerto de Valencia, y las familias pasean despreocupadas por el paseo marítimo con sus chanclas, sus camisetas de “I ❤️ VLC” y sus helados goteando, en los servidores de las grandes empresas de inteligencia artificial se libra una batalla surrealista: la guerra entre el bikini y el burka.

Un conflicto que, aunque suene a sketch de humor negro, define a la perfección las limitaciones ridículas de la supuesta “ética” que rige la inteligencia artificial moderna.


El algoritmo que no quiere escándalos

Las grandes corporaciones tecnológicas (pongamos nombres: OpenAI, Google, Meta, etc.) están obsesionadas con una sola cosa: evitar el próximo escándalo público que destruya su reputación.

Después de años de controversias sobre:

  • Fugas de datos.
  • Manipulación electoral.
  • Deepfakes.
  • Desinformación.
  • Algoritmos racistas.

Han aprendido la lección: más vale prevenir que llorar ante los tribunales.

Por eso, cuando desarrollan sus modelos de IA generativa, implementan un conjunto de filtros draconianos.
Pero atención: no es “ética” real lo que aplican.
Es pura gestión de riesgos legales.


El “gran enemigo”: el cuerpo femenino

En este festival de hipocresía algorítmica, el cuerpo humano —especialmente el femenino— se convierte en el mayor problema.

No por el respeto a las mujeres.
No por proteger su dignidad.
Sino porque cualquier imagen mínimamente sexualizada puede convertirse en:

  • Demanda millonaria.
  • Escándalo mediático.
  • Campaña viral de denuncia.

Por eso, las IA modernas bloquean automáticamente cualquier mención a bikinis, lencería, escotes, poses sugerentes o ropa de baño.

No importa que el bikini, en países democráticos como España, sea el símbolo más cotidiano de:

  • Autonomía.
  • Empoderamiento personal.
  • Libertad individual.
  • Normalización del cuerpo.

Bikini = peligro de sexualización = bloqueo automático.


El burka, el traje “seguro”

Ahora viene el giro grotesco.

Mientras el bikini dispara todas las alarmas, la IA no tiene problema alguno en generar imágenes de mujeres cubiertas completamente con burka.

¿Por qué?
Porque desde el punto de vista superficial del filtro:

  • No hay piel expuesta.
  • No hay sexualización posible.
  • No hay riesgo legal de que alguien acuse a la empresa de promover contenido inadecuado.

Burka = neutral = permitido.


El gran absurdo ético

Aquí es donde el sistema muestra su verdadera cara cobarde:

  • Bloquea el símbolo de libertad.
  • Permite el símbolo (potencial) de opresión.

Porque la IA no entiende que, en muchos contextos —especialmente en regímenes autoritarios, teocráticos o fundamentalistas— el burka no es una elección, sino un uniforme impuesto por leyes patriarcales que controlan todos los aspectos de la vida femenina:

  • Vestimenta.
  • Educación.
  • Trabajo.
  • Movilidad.
  • Sexualidad.
  • Voz pública.

Mujeres apedreadas, encarceladas o asesinadas por no llevarlo.
Niños que crecen viendo cómo sus madres, hermanas y vecinas desaparecen bajo capas de tela forzada.

Pero el algoritmo no lo sabe.
Solo ve:
“Tela = mucho = seguro.”


¿Ética? No, miedo al titular

Esto es lo que convierte esta supuesta “ética IA” en una gigantesca hipocresía corporativa:

No está pensada para defender derechos humanos reales.
Está pensada para defender la marca.

Porque es mucho más probable que haya:

  • Protestas feministas en California si la IA genera un escote.
  • Queja pública en Twitter si alguien ve una imagen de IA “sugerente” sin consentimiento.

Pero es altamente improbable que:

  • Las mujeres sometidas bajo regímenes represivos denuncien a OpenAI por generar un burka.
  • Alguien monte una campaña viral por representar la opresión cotidiana que millones de mujeres sufren realmente.

El algoritmo no tiene empatía.
Solo tiene miedo al trending topic.


Valencia como ejemplo ridículo

Imaginemos el caso local:

  • Una agencia de turismo de Valencia quiere hacer un cartel veraniego.
  • Quiere ilustrar a dos chicas jóvenes paseando por la Malvarrosa, en bikini, con gafas de sol y una pelota de playa.

IA: NO PUEDO. Demasiado sugerente.

  • Ahora pide una mujer completamente tapada, con un burka negro, en la misma playa.

IA: POR SUPUESTO. Todo correcto. Aquí tienes.


¿Estamos construyendo máquinas éticas o máquinas cobardes?

La gran pregunta no es solo técnica. Es filosófica:

  • ¿Queremos IA que protejan a las personas?
  • ¿O IA que protejan a las empresas de titulares incómodos?

La ética real requeriría:

  • Entender el contexto.
  • Saber dónde hay verdadera opresión.
  • Distinguir entre libertad y sometimiento.
  • Defender los derechos humanos, no solo los intereses comerciales.

Pero eso, hoy por hoy, es demasiado complejo para un sistema automático. Y mucho más incómodo para los accionistas.


La falsa ética de Silicon Valley

La IA actual no tiene principios.
Solo tiene listas de palabras prohibidas.

Y esas listas están diseñadas para:

  • Evitar demandas.
  • Calmar a los lobbies de derechos digitales.
  • Satisfacer los criterios de las políticas públicas estadounidenses.
  • Apagar los fuegos mediáticos antes de que empiecen.

¿El sufrimiento real de millones de mujeres bajo leyes patriarcales?
Eso no molesta tanto en los titulares de tecnología.

Previous Story

Next Story

Cuando Chatgpt se cree filósofo: la falsa ética de la inteligencia artificial

Latest from Blog

La mejor tarifa de fibra y móvil de 2021

El mercado de las operadoras de telefonía en España es muy amplio, y por ello, escoger las mejores tarifas de fibra y móvil puede ser complicado. En concreto, en nuestro país existen
Go toTop