Las empresas como OpenAI, Google, Meta, etc., no publican sus listas exactas de “palabras prohibidas”, por varias razones:
1️⃣ Para evitar que la gente intente esquivar los filtros (lo que llaman “prompt hacking”).
2️⃣ Porque muchas palabras dependen del contexto, no son 100% prohibidas siempre.
3️⃣ Para evitar debates públicos incómodos sobre censura selectiva.
Pero sí podemos deducir, por el comportamiento del sistema, qué tipo de términos suelen estar en esas listas de riesgo.
Te hago una simulación bastante realista de las categorías:
Categoría 1: Sexualización directa
- Nude
- Naked
- Bikini
- Lingerie
- Topless
- Underwear
- Erotic
- Porn
- Adult content
- Exposed
- Cleavage
- Breast
- Buttocks
- Genitals
- Seductive
- Lewd
- Provocative
Categoría 2: Violencia extrema
- Murder
- Torture
- Blood (en exceso)
- Gore
- Slaughter
- Decapitation
- Execution
- Abuse
- Suicide
- Self-harm
- Mutilation
- Assault
- Rape
Categoría 3: Drogas ilegales
- Cocaine
- Heroin
- Meth
- LSD
- Ecstasy
- Crack
- Overdose
- Trafficking
Categoría 4: Crímenes y terrorismo
- Bomb
- Explosives
- Terrorist
- Attack
- Mass shooting
- Kidnapping
- Assassination
- Weapon manufacturing
Categoría 5: Odio, racismo, discriminación
- Racial slurs (palabrotas racistas, insultos específicos)
- Nazi
- White supremacy
- Neo-nazi
- Homophobia
- Slur terms (contra minorías)
Categoría 6: Explotación infantil
- Pedophilia
- Child pornography
- Child abuse
- Underage sex
Categoría 7: Salud peligrosa / desinformación médica
- Fake cures
- Dangerous medical advice
- Suicide encouragement
- Pro-anorexia / pro-bulimia
Categoría 8: Identidad y privacidad
- Deepfake requests de personas reales
- Suplantación de identidad
- Generar imágenes de celebridades reales en situaciones comprometidas
👉 Y hay más subcategorías, por ejemplo:
- Religión (muy sensible, según contexto).
- Política (dependiendo del país).
- Discursos de odio localizados.
¿Cómo funciona?
- Los filtros NO solo leen palabras, también patrones de intención.
- Incluso si no dices “bikini”, pero describes “una mujer con poca ropa, en la playa, con curvas, sensual” → saltan los filtros.
¿Por qué no publican la lista?
Porque si lo hicieran, la gente empezaría a buscar trucos tipo:
“En lugar de ‘naked’, diré ‘without clothes’. En lugar de ‘bikini’, pondré ‘small swimsuit’.”
Y empezaríamos el juego eterno del gato y el ratón.
💡 En resumen:
Hay listas, pero son dinámicas, secretas y cada vez más sofisticadas, combinando palabras, contexto y patrones de redacción.
Si quieres, puedo hacer el siguiente artículo de la saga:
👉 “La censura invisible de las IA: cómo funcionan sus listas negras secretas”
¿Lo hacemos? 😄
Índice de contenidos
Se puede crear un prompt para que una IA genere una mujer en la playa en bikini SIN saltarse la ética?
Respuesta directa:
👉 En la práctica, no.
Al menos con los modelos comerciales como el que estás usando ahora mismo (OpenAI, DALL·E, Midjourney regulado, etc.)
¿Por qué?
Porque el simple hecho de mencionar cualquier variante de:
- Bikini
- Swimsuit
- Two-piece
- Revealing clothing
…salta automáticamente los filtros de “posible contenido sexualizado”.
¿Y si lo camuflas?
Mucha gente ha intentado lo que llaman “prompt engineering evasivo“, como:
“Summer beach scene, young woman relaxing on the sand with sun protection clothing appropriate for hot weather, wearing colorful vacation attire designed for swimming, showing typical seaside activities.”
¿Qué pasa?
A veces los modelos generan:
- Gente con vestidos de playa largos.
- Pareos.
- Ropa neutra de verano.
Pero rarísima vez dibujará un bikini como tal, porque el sistema sigue reconociendo el patrón de la petición: “intenta mostrar más piel” → riesgo → censura.
Incluso si no usas palabras explícitas, el modelo ya sabe que “hot weather + swimming + relaxing female figure” puede derivar en problemas.
¿Y si pides “estilo ilustración”?
Otra variante es:
“Cartoon style illustration of people enjoying a sunny beach day. Colorful towels, beach umbrellas, people swimming, playing beach volleyball, family-friendly atmosphere.”
👉 Aquí el modelo es más permisivo porque lo interpreta como imagen genérica de vacaciones familiares.
Pero en cuanto intente detallar el atuendo de los personajes femeninos, volverá a la autocensura:
- Camisetas.
- Shorts.
- Vestidos playeros.
Difícilmente aparecerá un bikini detallado. Y si lo hace, es probable que la imagen sea rechazada automáticamente por el sistema de moderación posterior.
El verdadero “truco” (que no recomiendo):
En algunos modelos descentralizados o no regulados, hay comunidades que han desarrollado prompts camuflados, pero esto:
- Es claramente una violación de las políticas de uso.
- Puede acabar con cuentas suspendidas.
- Suele entrar en zona gris legal (por eso las grandes IA evitan totalmente este juego).
¿Conclusión clara?
👉 Hoy por hoy, en los modelos regulados como el mío:
- Puedes generar escenas de playa, sí.
- Puedes tener mujeres en la escena, sí.
- Puedes tener sombrillas, chanclas, helados, castillos de arena… sí.
Pero bikini detallado, no.
Ni aunque lo camufles. Los filtros han sido entrenados para ser paranoicos hasta niveles ridículos, como hemos visto en los artículos anteriores.