La inteligencia artificial (IA) ha pasado de automatizar tareas a producir contenidos capaces de imitar la experiencia humana con una precisión inédita. En ese escenario acelerado emerge SORA, un modelo de IA desarrollado por OpenAI que transforma texto en videos generados hiperrealistas. Su capacidad para producir escenas verosímiles tensiona los límites entre la ficción y la realidad. A medida que tales tecnologías avanzan, nuestra percepción se vuelve más susceptible a confusiones que antes parecían impensables. A continuación, exploramos qué implica este salto tecnológico para la psicología y la interpretación del mundo digital.
La revolución de SORA

Se trata de una nueva generación de modelos capaces de transformar texto en videos coherentes y altamente realistas. Estas herramientas se basan en modelos de difusión y arquitecturas generativas entrenadas con grandes volúmenes de datos visuales. Lo antedicho permite que los sistemas inteligentes aprendan cómo se comportan las escenas: desde el movimiento de la cámara, el cambio de la luz, la interacción de los objetos y cómo permanece la continuidad entre fotogramas.
La IA SORA forma parte de dicho avance. Este tipo de capacidades representa un salto importante respecto a sistemas previos, porque acerca la posibilidad de generar entornos complejos, personajes en movimiento y acciones completas usando únicamente lenguaje natural.
Entre la invención y la manipulación
Sin embargo, el potencial creativo tiene un reverso inquietante. Los mismos mecanismos que permiten crear escenas imaginarias pueden distorsionar los reales. Los videos sintéticos producidos por esta tecnología representan un riesgo creciente para la confianza pública, la privacidad y la salud mental colectiva.
En una encuesta con 7.083 personas de siete países europeos, se reveló que la población percibe beneficios educativos y artísticos, pero sitúa la desinformación y la manipulación como los principales peligros. En este sentido, la IA SORA aparece como una herramienta ambivalente: fuente de innovación o arma de distorsión, dependiendo del uso y del grado de alfabetización mediática de quienes la emplean (Hynek et al, 2025).
El desafío de la percepción humana
Por otra parte, en un experimento online, expusieron a 110 participantes angloparlantes a videos reales y falsos generados por IA. Mientras las personas apenas alcanzaron una precisión media del 65 % al intentar distinguirlos, los modelos automáticos superaron el 97 %. El hallazgo es contundente: aunque la mayoría confía en su capacidad de detección, la sobreestima de forma sistemática. En otras palabras, solemos confiar en lo que vemos, aun cuando provenga de contenido sintético difícil de identificar (Hashmi et al., 2024).

Los investigadores describen un fenómeno conocido como sesgo de autenticidad: la tendencia natural a considerar verdadero aquello que es percibido con facilidad visual. Aun cuando se advertía a los participantes que la mitad de los contenidos eran falsos, la mayoría los clasificó como reales.
Sesgos cognitivos y efecto verdad
Detrás de esta confianza ilusoria se esconden mecanismos bien conocidos por la psicología cognitiva. El llamado efecto verdad lleva a creer en la información repetida o visualmente verosímil, incluso cuando se sabe que puede ser falsa. En el estudio anteriormente mencionado comprobaron que los participantes no solo fallaban en distinguir videos manipulados, sino que además atribuían las alteraciones a causas erróneas. Es decir, los participantes mostraron una mayor propensión a atribuir el engaño a alteraciones visuales antes que auditivas (Hashmi et al., 2024).
Dicho patrón sugiere que la información visual continúa ocupando un lugar privilegiado en la evaluación de autenticidad, aun cuando no sea necesariamente el canal más fiable. Para la IA SORA, que combina sonido, movimiento y textura en un mismo modelo, este sesgo juega a su favor. Cuanto más fluido y natural parece el contenido, más convincente se vuelve para el espectador, aunque sea completamente ficticio.
Memoria, confianza y falsos recuerdos
Asimismo, más allá de solo ver, es fundamental recordar. En un estudio con 200 adultos estadounidenses, se demostró que las imágenes y videos alterados por IA pueden implantar falsos recuerdos con alto nivel de confianza subjetiva. En su experimento, bastaba una breve exposición a material manipulado para que los participantes recordaran eventos que nunca sucedieron. Las implicaciones son profundas: si los medios sintéticos modifican la memoria, la frontera entre experiencia y ficción se desdibuja (Pataranutaporn et al., 2025).

Aplicado al contexto de SORA, el riesgo es claro. Los contenidos hiperrealistas generados a partir de texto podrían potenciar mecanismos similares, favoreciendo la incorporación de detalles erróneos en la memoria del observador sin que este lo advierta.
Ética y regulación como desafío
Los debates éticos sobre esta temática suelen dividirse entre optimistas tecnológicos y defensores del control regulatorio. Por ejemplo, la opinión pública europea reconoce el potencial de los videos generados para la innovación, pero reclama marcos de seguridad y transparencia. En un análisis comparativo, países como el Reino Unido y la República Checa mostraron una percepción de riesgo significativamente mayor, mientras que Italia y España se inclinan por una visión más equilibrada (Hynek et al, 2025).
En este escenario, la IA SORA emerge como un punto de inflexión. No basta con evaluar su precisión técnica; es imprescindible considerar sus efectos sobre la cognición, la identidad digital y la estabilidad emocional de los usuarios.
Transparencia y alfabetización mediática
Las respuestas más efectivas a esta problemática combinan estrategias educativas y normativas. Es decir, recurrir al etiquetado explícito de dichos contenidos, implementar mecanismos de trazabilidad y promover programas de alfabetización digital orientados a fortalecer la comprensión pública sobre cómo se producen y circulan los videos generados por IA. Dichas iniciativas apuntan a mejorar la capacidad de las personas para interpretar el material audiovisual y contextualizar su origen.
El desafío consiste en articular tales recursos sin frenar el potencial creativo de las nuevas tecnologías. En contextos donde estos contenidos alcanzan niveles de verosimilitud elevados, el análisis crítico y la evaluación de fuentes se vuelve un componente central para mitigar el impacto psicológico y social de la desinformación audiovisual.
Realidades fabricadas
La aparición de la IA SORA evidencia cómo los videos generados a partir de texto tienden a desafiar nuestra capacidad para distinguir entre material auténtico y contenido sintético. Los estudios revisados muestran que las personas no solo presentan dificultades para detectar estas manipulaciones, sino que también pueden incorporar detalles inexactos en su memoria tras exponerse a material alterado. Lo dicho sitúa el fenómeno en un cruce entre tecnología, cognición y confianza pública.
Hacia delante, será necesario avanzar en estrategias que combinen regulación, transparencia y formación crítica. Algunas de las medidas ya mencionadas ayudan a reducir la vulnerabilidad ante este tipo de producciones, sin limitar su valor creativo. Desarrollar tales capacidades será clave para navegar un entorno digital donde la producción hiperrealista seguirá expandiéndose.
Referencias bibliográficas
- Hashmi, A., Shahzad, S. A., Lin, C. W., Tsao, Y. y Wang, H. M. (2024). Unmasking illusions: Understanding human perception of audiovisual deepfakes. arXiv preprint arXiv:2405.04097.
https://doi.org/10.48550/arXiv.2405.04097 - Hynek, N., Gavurova, B. y Kubak, M. (2025). Risks and benefits of artificial intelligence deepfakes: Systematic review and comparison of public attitudes in seven European Countries. Journal of Innovation & Knowledge, 10(5), 100782. https://doi.org/10.1016/j.jik.2025.100782
- Pataranutaporn, P., Archiwaranguprok, C., Chan, S., Loftus, E. y Maes, P. (2025). Synthetic Human Memories: AI-Edited Images and Videos Can Implant False Memories and Distort Recollection. In Proceedings of the 2025 CHI Conference on Human Factors in Computing Systems (CHI ’25). Association for Computing Machinery, New York, NY, USA, Article 538, 1-20. https://doi.org/10.1145/3706598.3713697

























