La desinformación no es nada nuevo. Sin embargo, se ha vuelto omnipresente y, en algunos casos, desmentirla es más difícil y laborioso que nunca.

Cuando empezamos a publicar artículos en 2003, antes de que existiera Facebook (2004), YouTube (2005) y Twitter (2006), la desinformación viral se presentaba en forma de cadenas de correos electrónicos. Aunque eran un problema en aquel momento, las cadenas de correos electrónicos eran a la desinformación, lo que el Pony Express es a ChatGPT.
A medida que la popularidad de las redes sociales ha crecido, el alcance de la desinformación viral y la velocidad con la que se propaga han crecido a la par. Y este entorno plagado de falsedades es, cada vez más, el lugar donde la gente se informa.
En una encuesta realizada a adultos en Estados Unidos el año pasado, el Pew Research Center descubrió que “poco más de la mitad de los adultos en EE. UU. (54%) dicen que al menos a veces obtienen noticias a través de las redes sociales”.
El increíble crecimiento de los pódcast también ha contribuido a la propagación de desinformación en redes sociales. Según el Pew Research Center, el 42% de los estadounidenses mayores de 12 años afirmaron haber escuchado un pódcast el mes anterior en 2023, frente a solo el 9% en 2008. En febrero, YouTube, la mayor plataforma de video, anunció que contaba con más de mil millones de usuarios mensuales de pódcast.
La aparición de la inteligencia artificial, o IA, hace que sea aún más difícil para las personas que usan redes sociales separar los hechos de la ficción.
“Las tecnologías de IA, con su capacidad de generar textos, imágenes, audios y videos falsos y convincentes (a menudo denominados ‘deepfakes’), presentan dificultades significativas para distinguir el contenido auténtico de las creaciones sintéticas”, escribieron el año pasado Cathy Li y Agustina Callegari, del Foro Económico Mundial, en un artículo sobre cómo combatir la desinformación de la IA.
Nuestro trabajo busca informar al público y desmentir falsedades políticas. Sin embargo, no podemos verificar todos los hechos. Aquí encontrarás nuestros consejos para identificar publicaciones falsas y distorsiones de la realidad.
Piensa antes de compartir. Por mucho tiempo hemos aconsejado a nuestros lectores que “sean escépticos, no cínicos”. En lo que respecta al contenido en línea, esto significa: piensa dos veces antes de compartir esa publicación en redes sociales.
“No presiones compartir hasta que te detengas y pienses: ‘¿Estoy razonablemente seguro de que esto es cierto… parece plausible?’”, dijo David Rand, profesor de ciencias cerebrales y cognitivas en el MIT, en PBS Newshour, el año pasado.
Sabemos que esto puede ser difícil, sobre todo si el contenido evoca una respuesta fuerte y coincide con tus creencias, lo cual suele ser el caso. Hay dos razones para ello:
- En busca de clics, los proveedores de contenidos nos brindan textos, imágenes y videos que a menudo provocan una reacción en nosotros.
- Mediante algoritmos, las plataformas de redes sociales nos brindan lo que creen que queremos ver y oír.
Como resultado, las publicaciones en redes sociales suelen apelar a nuestras emociones y, como seres humanos, somos susceptibles al sesgo de confirmación, que consiste en la tendencia a dar demasiada importancia a la información que confirma nuestras creencias. La combinación de ambos factores hace que la desinformación se viralice.
Pero resiste la tentación de volver a compartirlo inmediatamente.
Considera la fuente. ¿Quién compartió la afirmación? ¿Qué sabemos sobre esta persona u organización? ¿Tiene algún conflicto partidista o financiero? ¿Qué le habilita para escribir o hablar sobre el tema?
Hemos visto mucha desinformación por parte de personas que sacan conclusiones y comparten opiniones, a pesar de no tener experiencia en el tema o de tener un claro conflicto de intereses, o ambos.
En el punto álgido de la pandemia del COVID-19, desmentimos las afirmaciones falsas sobre el virus de varios quiroprácticos. Uno con varias infracciones, el quiropráctico Eric Nepute, fue demandado por el Departamento de Justicia y la Comisión Federal de Comercio por violar la Ley de Protección al Consumidor del COVID-19. En un acuerdo, Nepute aceptó pagar una multa y dejar de hacer afirmaciones falsas sobre los suplementos que anunciaba y vendía como preventivos y tratamientos para el COVID-19. La demanda civil afirmaba que Nepute y sus empresas “han obtenido importantes ganancias con la venta de estos y otros productos de Wellness Warrior”.
Si alguien hace afirmaciones con el objetivo de venderte algo, esa es una señal de alerta para ser escéptico.
Por supuesto, también vemos mucha desinformación por parte de partidarios de un partido, así que ten cuidado con las cuentas de redes sociales liberales y conservadoras que hacen afirmaciones sobre el otro bando.
Por ejemplo, recientemente desmentimos la afirmación engañosa difundida por el presidente Donald Trump y comentaristas conservadores de que Politico, un medio de comunicación digital, estaba siendo financiado “totalmente” o “masivamente” por la Agencia de los Estados Unidos para el Desarrollo Internacional (USAID, po sus siglas en inglés) durante la administración Biden. Lo cierto es que los pagos al medio correspondían a suscripciones, comunes en muchas agencias federales durante las administraciones de Trump y Biden.
Evalúa la evidencia. ¿La persona que realiza la afirmación aporta alguna evidencia, como enlaces a artículos, investigaciones publicadas u otras fuentes? ¿Se mencionan algunas fuentes, pero no se proporcionan enlaces? ¿Qué tan creíble es la evidencia presentada?
Si no se proporcionan fuentes, esa es una señal de alerta. Si se citan fuentes, busca el material original y comprueba si la evidencia respalda la afirmación. Te sorprenderá la frecuencia con la que la “evidencia” no respalda la afirmación. (Ten cuidado al hacer clic en enlaces. Asegúrate de que dirijan a un sitio web legítimo).
El mes pasado, publicamos un artículo sobre publicaciones en redes sociales que afirmaban falsamente que Trump ordenó la liberación del expresidente filipino Rodrigo Duterte de la Corte Penal Internacional. Las publicaciones citaban la “Orden Ejecutiva 2025-03”, que no existe. Ese ni siquiera es el sistema de numeración usado para las órdenes ejecutivas.
También debes verificar la credibilidad del material proporcionado como fuente en las redes sociales.
Recientemente, desmentimos afirmaciones engañosas sobre el sarampión en un video publicado en X por Mary Holland, directora ejecutiva del grupo antivacunas Children’s Health Defense, fundado por el secretario de Salud y Servicios Humanos, Robert F. Kennedy Jr. Holland basó sus afirmaciones en un artículo de Sayer Ji, fundador de un sitio web de medicina alternativa, quien fue incluido en la “Docena de Desinformación” del Center for Countering Digital Hate, una lista de los principales propagadores de desinformación sobre vacunas en redes sociales. Ji es licenciada en filosofía por la Universidad de Rutgers.
Los antecedentes de Ji en la difusión de información errónea y su falta de experiencia en el área de enfermedades infecciosas son señales de alerta.
En otro caso, escribimos sobre un artículo en una revista científica revisada por pares que contenía numerosas afirmaciones falsas sobre las vacunas de ARNm contra el COVID-19. El artículo, que posteriormente fue retractado, fue escrito por personas conocidas por oponerse a las vacunas que difundieron información errónea sobre las vacunas de ARNm, y se publicó en una revista que no cumplía con los mismos estándares que otras revistas de mayor prestigio.
Si la publicación en redes sociales incluye una imagen que sospechas que podría ser falsa, puedes usar buscadores inversos de imágenes, como Google y TinEye, que pueden ayudarte a encontrar la imagen original y dónde y cuándo apareció en línea. Hemos utilizado estas herramientas en numerosas ocasiones a lo largo de los años.
¿Evidencia u opinión? Los comentaristas de televisión por cable, podcasteros y columnistas han difuminado la línea entre noticia y opinión.
Si la evidencia citada en una publicación en las redes sociales proviene de una fuente de noticias, o pretende provenir de una fuente de noticias, a veces clasificada falsamente como “noticias de última hora“, debes considerar si la publicación en las redes sociales comparte informes basados en hechos o la opinión de alguien sobre las noticias.
Todos tienen derecho a sus propias opiniones, pero hemos descubierto que muchos sitios web, podcasteros y comentaristas partidistas, ya sea que promuevan una agenda liberal o conservadora, no cuentan la historia completa. Su versión de los hechos suele estar sesgada para beneficiar a su bando.
Consulta con expertos. Si aún no estás seguro de la veracidad de una afirmación en redes sociales, consulta con expertos. Esto incluye FactCheck.org: estamos en YouTube, Facebook, Instagram, Threads, X, BlueSky, WhatsApp y TikTok.
Un buen lugar para comenzar es Google o los motores de búsqueda de FactCheck.org y otros sitios web de verificación de datos.
La búsqueda debe incluir palabras clave o un breve extracto de la publicación, pódcast o video en redes sociales. Por ejemplo, algunas publicaciones en redes sociales afirmaban que el Departamento de Eficiencia Gubernamental (DOGE, por sus siglas en inglés) suspendió las regalías al expresidente Barack Obama por el programa “Obamacare”, conocido formalmente como la Ley de Cuidado de Salud Asequible. Los dos primeros resultados de una búsqueda reciente en Google de “royalties + Obama + Affordable Care Act” arrojaron artículos de FactCheck.org y AFP Fact Check, una organización francesa de verificación de datos.
Google también ha creado una herramienta llamada “Fact Check Explorer”, una base de datos con función de búsqueda de artículos de verificación de datos de todo el mundo. La misma búsqueda de “royalties + Obama + Affordable Care Act” en el Fact Check Explorer de Google arrojó seis artículos de verificación de datos, todos ellos desmintiendo la afirmación sobre Obama.
La producción de artículos de verificación de datos lleva tiempo, por lo que en algunos casos es posible que no encuentres un artículo sobre el tema inmediatamente. Sin embargo, puedes encontrar algunos artículos de noticias sobre el tema, pero asegúrate de utilizar fuentes confiables, como el Wall Street Journal, Reuters, Associated Press, New York Times y otros medios de comunicación establecidos.
Sabemos que la confianza en los medios es baja, pero el hecho es que las organizaciones de noticias legítimas, como el Washington Post y el New York Times, tienen políticas y procedimientos escritos para cuestiones como la recopilación de noticias, la edición y las correcciones, así como estándares de conducta ética y conflictos de intereses.
Incluso cuando usas fuentes confiables, conviene consultar más de una para ver qué informan los demás. Varios medios de comunicación informarán sobre noticias de última hora y acontecimientos importantes, así que desconfía si solo un medio informa sobre las “noticias” que ves en redes sociales.
Imágenes generadas por IA
Como mencionamos anteriormente, el contenido en línea puede ser creado por IA generativa, que “puede crear contenido original, como texto, imágenes, video, audio o código de software, en respuesta a la solicitud o aviso de un usuario”, como explica IBM en su sitio web.
Ya hemos hablado sobre el texto en la sección anterior. Las mismas reglas se aplican al texto creado por humanos o servicios de IA. Aquí nos centraremos en imágenes, videos y audio generados por IA.
Llevamos años escribiendo sobre fotos falsas. Al principio, las fotos falsas eran imágenes reales alteradas con Photoshop u otros programas de edición.
En 2008, por ejemplo, escribimos sobre una imagen que supuestamente mostraba a la entonces gobernadora de Alaska, Sarah Palin, con un bikini rojo, blanco y azul y sosteniendo un rifle. Pero no era ella. Su cabeza había sido retocada con Photoshop sobre el cuerpo de otra mujer.
Gracias a la IA, quienes buscan entretener o causar problemas pueden crear imágenes, videos y audios completamente nuevos. Los expertos afirman que es posible detectar una falsificación observando atentamente las señales de alerta.
“Es posible crear imágenes, audio y videos que parecen reales con las herramientas actuales de IA generativa”, nos explicó Matthew Groh, profesor adjunto de Administración y Organizaciones en la Escuela de Administración Kellogg de la Universidad Northwestern, en un correo electrónico. “Una de las mejores maneras de detectar una mentira (y también los medios generados por IA) es buscar contradicciones”.
Groh y sus colegas publicaron en febrero un artículo de investigación que midió la precisión de más de 50.000 participantes, a quienes se les pidió que identificaran si las imágenes eran reales o generadas por IA. Los participantes se les dio “tiempo ilimitado, 20 segundos, 10 segundos, 5 segundos y 1 segundo”. El artículo concluyó que los tiempos de visualización más prolongados mejoraron la precisión de los participantes.
Partes del cuerpo no naturales. Groh y sus colegas de Northwestern identificaron indicios de fotos generadas por IA para un artículo del año pasado en Kellogg Insight, una publicación escolar. Aconsejaron a los usuarios de redes sociales que examinaran con atención diversas partes del cuerpo en busca de “improbabilidades anatómicas”.
“¿Hay extremidades o dedos faltantes o adicionales? ¿Cuerpos que se fusionan con su entorno o con otros cuerpos cercanos? ¿Un cuello similar al de una jirafa en un humano? En las imágenes generadas por IA, los dientes pueden superponerse o parecer asimétricos. Los ojos pueden ser excesivamente brillantes, borrosos o de aspecto cóncavo”, decía el artículo.
Si la persona es una figura pública, se pueden comparar los rasgos faciales con fotos de noticias existentes para detectar discrepancias, también señaló el artículo.
Objetos extraños. También puede haber rarezas en la forma en que las partes del cuerpo interactúan con los objetos, o incluso problemas con los propios objetos.
Por ejemplo, el artículo de Kellogg Insight incluía una imagen generada por IA que mostraba la mano de una persona dentro de una hamburguesa. La hamburguesa en sí es increíblemente grande.
“Cuando hay interacciones entre personas y objetos, a menudo hay cosas que no parecen del todo correctas”, dijo Groh a Kellogg Insight, refiriéndose a estas rarezas como “improbabilidades funcionales”.
Sombras y reflejos irregulares. La IA también tiene dificultades con las sombras y los reflejos. Las sombras pueden proyectarse en diferentes direcciones y los reflejos pueden no coincidir con el objeto que pretenden reflejar, explicaron Groh y sus colegas.
Por ejemplo, una imagen generada por IA en el artículo de Kellogg Insight muestra a una persona con una camisa de manga corta, mientras que su imagen reflejada lleva una camisa de manga larga. El artículo de investigación de Northwestern describe estas irregularidades como “violaciones de la física”.
Los investigadores también identificaron otras dos señales reveladoras de las imágenes generadas por IA: “artefactos estilísticos”, que se refieren a “cualidades excesivamente brillantes, cerosas o pintorescas de elementos específicos de una imagen”, e “inverosimilitudes socioculturales”, que son “escenarios que violan las normas sociales, el contexto cultural o la precisión histórica”.
Palabras sin sentido. Jonathan Jarry, divulgador científico de la Oficina para la Ciencia y la Sociedad de la Universidad McGill, explicó en un artículo publicado el año pasado en el sitio web de la universidad que las imágenes generadas por IA tienen dificultades para manejar las palabras. En su artículo, Jarry solicitó a un servicio de IA que creara una foto de Montreal de alrededor de 1931. Sin embargo, un problema era que las letras que aparecían en la señalización de fondo eran “jerigonzas”.
(¿Crees que puedes distinguir las fotos reales de las imágenes falsas generadas por IA? Realiza la prueba “Detecta falsificaciones” en el sitio web de Kellogg School).
Video y audio generados por IA
A diferencia de las imágenes falsas, los videos y audios falsos son un fenómeno bastante nuevo.
Recientemente escribimos sobre un audio que circulaba en redes sociales y que supuestamente mostraba a Donald Trump Jr. diciendo que “EE. UU. debería haber enviado armas a Rusia” en lugar de a Ucrania. Sin embargo, no encontramos pruebas de que Trump hubiera hecho tal comentario, y un experto forense digital nos indicó que probablemente era falso.
Busca pistas contextuales. Determina si el texto de la publicación, el audio o el video en sí ofrecen pistas contextuales, como dónde y cuándo supuestamente se pronunciaron las palabras.
En el caso del audio falso de Trump, una señal de alerta fue la afirmación de que el hijo del presidente hizo su comentario sobre Rusia en un episodio del 25 de febrero de su pódcast, “Triggered with Donald Trump Jr.” Sin embargo, Trump no hizo ningún comentario similar sobre Rusia durante ese episodio.
Presta atención a las anomalías de audio. El Observatorio Europeo de Medios Digitales (EDMO, por sus siglas en inglés), un proyecto de la Comisión Europea, ofrece consejos para detectar audio y video generados por IA. Al escuchar audio, recomienda “prestar atención a la elección de palabras, la entonación, la respiración, las pausas no naturales y otros elementos que puedan manifestar anomalías”.
Presta atención a la calidad del video. El EDMO recomienda verificar la calidad del video para detectar contornos desenfocados, rasgos poco realistas y una mala sincronización entre el audio y el video, es decir, cuando los labios no coinciden con el audio.
Busca las exenciones de responsabilidad. Algunas plataformas de redes sociales, como Meta, YouTube y TikTok, requieren que los usuarios agreguen una etiqueta al contenido generado por IA. Comprueba si la plataforma que usas tiene dicha política y, de ser así, busca las exenciones de responsabilidad.
Por ejemplo, Meta, propietaria de Facebook, Threads e Instagram, utiliza una etiqueta de “información de IA” “para el contenido que detectamos que fue generado por una herramienta de IA y compartimos si el contenido está etiquetado debido a señales compartidas por la industria o porque alguien lo reveló por sí mismo”.
Groh, profesor adjunto de Northwestern, dijo que Community Notes en X (la plataforma anteriormente conocida como Twitter) puede ser útil para marcar contenido generado por IA.
“Las notas de la comunidad pueden ser muy útiles para añadir contexto y dirigir la atención de la gente hacia posibles indicios”, como esta nota en respuesta a una imagen publicada tras el huracán Milton, dijo Groh. “Asimismo, el contexto y la información de fuentes fiables, como verificadores de datos o expertos en análisis forense digital, pueden ser útiles para ayudar a los usuarios de redes sociales a decidir si lo que han visto en línea es generado por IA o real”.
Traducción de Google Translate editada por Catalina Jaramillo.
FactCheck.org no acepta publicidad. Dependemos de subvenciones y donaciones individuales de personas como usted. Por favor considere una donación. Las donaciones con tarjeta de crédito se pueden hacer a través de nuestra página para donar. Si prefiere donar con un cheque, envíelo a: FactCheck.org, Annenberg Public Policy Center, P.O. Box 58100, Philadelphia, PA 19102.