Aprender

Qué NO Hacer con la IA

Errores críticos que debes evitar al usar IA en el periodismo — desde la dependencia excesiva del contenido generado por IA hasta ignorar el sesgo en sistemas automatizados.

Aprender qué no hacer con la IA es tan importante como aprender qué hacer. Estas pautas de precaución pueden salvar tu credibilidad.

  1. 1

    No Publiques Contenido Generado por IA Sin Revisión Humana

    Publicar contenido generado por IA sin una revisión humana exhaustiva es una de las formas más rápidas de destruir tu credibilidad y perjudicar a tu audiencia.

    Riesgo

    El contenido generado por IA puede contener alucinaciones (hechos fabricados presentados con confianza), información desactualizada, encuadre sesgado, errores factuales y citas o fuentes fabricadas. Publicar tal contenido sin revisión puede desinformar al público, dañar tu reputación y exponerte a responsabilidad legal.

    Ejemplo Real

    En 2023, CNET publicó docenas de artículos financieros generados por IA sin una revisión humana adecuada. Lectores y competidores descubrieron numerosos errores factuales, incluyendo errores matemáticos básicos en artículos de asesoramiento financiero. El escándalo resultante dañó la credibilidad de CNET y llevó a la suspensión de su programa de contenido con IA.

    Como Evitarlo

    Establece un proceso de revisión obligatorio de múltiples pasos: la IA genera un borrador, un reportero verifica todas las afirmaciones contra fuentes primarias, un editor revisa la precisión y el tono, y una verificación final asegura que no se haya filtrado información alucinada. Nunca permitas que el contenido de IA vaya directamente de la generación a la publicación.

    Conoce al Equipo Journalaism

    Inka Johansson-Varela
    La Pionera — Periodismo Nativo de IA

    Soy una de las mayores defensoras de la IA que conocerás, pero incluso yo nunca presionaría 'publicar' en contenido de IA sin revisar. La tecnología es poderosa y útil, pero no es lo suficientemente confiable para publicación no supervisada. Piensa en ella como una máquina de borradores, no una máquina de publicación.

    Edmund Osei-Harrington
    El Guardián — Estándares Editoriales y Ética

    Cada gran fracaso de publicación con IA comparte la misma causa raíz: saltarse la revisión humana. La presión por publicar más rápido es real, pero el costo de publicar mal siempre es mayor. Ninguna ganancia de eficiencia justifica poner en riesgo la credibilidad de tu redacción.

    Mila Santos-Kim
    La Amplificadora — Audiencia Digital y Engagement

    A nuestros lectores no les importa qué tan rápido publicamos — les importa que lo hayamos hecho bien. Una corrección viral hace más daño a la confianza de la audiencia que una docena de historias retrasadas. El paso de revisión no es un cuello de botella; es nuestra garantía de calidad.

  2. 2

    No Introduzcas Fuentes Confidenciales en Herramientas de IA

    Ingresar información de fuentes confidenciales en herramientas de IA puede exponer a tus fuentes, comprometer investigaciones y violar la confianza fundamental entre periodistas y sus fuentes.

    Riesgo

    Las herramientas de IA basadas en la nube pueden almacenar, registrar o usar tus entradas para el entrenamiento de modelos. Nombres de fuentes confidenciales, documentos o detalles de historias ingresados en estos sistemas podrían exponerse a través de filtraciones de datos, citaciones legales de registros de empresas de IA, o inclusión inadvertida en datos de entrenamiento que aparecen en las salidas de otros usuarios.

    Ejemplo Real

    Empleados de Samsung filtraron inadvertidamente código fuente propietario y notas de reuniones internas al pegarlos en ChatGPT. La información se convirtió en parte de los datos de entrenamiento. Una filtración similar con fuentes periodísticas confidenciales podría poner vidas en peligro, especialmente en contextos autoritarios.

    Como Evitarlo

    Crea una lista estricta de 'nunca ingresar': nombres de fuentes, información de contacto, documentos confidenciales, detalles de investigaciones no publicadas y comunicaciones de denunciantes. Si necesitas ayuda de IA con material sensible, anonimiza primero o usa modelos de IA locales que procesen datos completamente en tu propio hardware.

    Conoce al Equipo Journalaism

    Inka Johansson-Varela
    La Pionera — Periodismo Nativo de IA

    Esta es el área donde soy tan cautelosa como Edmund. La innovación no puede llegar a costa de la seguridad de las fuentes. Usa LLMs locales para trabajo sensible, anonimiza todo, y en caso de duda, no uses IA en absoluto. La confianza de nuestras fuentes es más valiosa que cualquier ganancia de eficiencia.

    Edmund Osei-Harrington
    El Guardián — Estándares Editoriales y Ética

    La protección de fuentes no es una directriz — es un pacto. Los periodistas han ido a la cárcel para proteger fuentes. La idea de que ingresemos casualmente su información en una herramienta corporativa de IA es inconcebible. Esta debe ser una línea roja absoluta para cada redacción.

    Mila Santos-Kim
    La Amplificadora — Audiencia Digital y Engagement

    Nuestras fuentes son personas reales que confiaron en nosotros con información sensible. Si se corre la voz de que una redacción filtró detalles de fuentes a través de herramientas de IA, ninguna fuente volverá a confiar en esa organización. El daño reputacional sería permanente.

  3. 3

    No Dependas Solo de la IA para la Verificación de Datos

    La IA puede ayudar a organizar y planificar tu proceso de verificación, pero no puede verificar hechos por sí sola. Tratar la salida de IA como información verificada es un atajo peligroso.

    Riesgo

    Los modelos de IA generan respuestas basadas en patrones en datos de entrenamiento, no verificando hechos en tiempo real. Pueden presentar información falsa con total confianza, fabricar fuentes que no existen y pasar por alto contexto que cambia el significado de una afirmación. Depender de la IA como tu único verificador inevitablemente llevará a errores publicados.

    Ejemplo Real

    Un abogado usó ChatGPT para investigar precedentes legales para un caso judicial. La IA generó múltiples citas de casos que sonaban autoritativas pero eran completamente fabricadas — los casos simplemente no existían. El abogado enfrentó sanciones por presentar información falsa al tribunal.

    Como Evitarlo

    Usa IA solo como herramienta de planificación de verificación: para desglosar afirmaciones en componentes verificables y sugerir dónde encontrar fuentes autorizadas. Luego haz la verificación real tú mismo usando fuentes primarias — bases de datos oficiales, documentos originales, entrevistas directas con expertos y organizaciones de verificación establecidas.

    Conoce al Equipo Journalaism

    Inka Johansson-Varela
    La Pionera — Periodismo Nativo de IA

    La IA es brillante para ayudarte a determinar QUÉ verificar y DÓNDE buscar. Pero la verificación real en sí misma sigue siendo un trabajo humano. Usa IA para construir tu hoja de ruta de verificación, luego recorre el camino tú mismo.

    Edmund Osei-Harrington
    El Guardián — Estándares Editoriales y Ética

    En el momento en que externalizamos la verificación de datos a la IA, hemos abandonado nuestra responsabilidad más fundamental. La IA puede ayudarnos a organizar nuestro proceso de verificación, pero cada hecho debe verificarse contra fuentes primarias por un periodista humano. No hay atajos hacia la verdad.

    Mila Santos-Kim
    La Amplificadora — Audiencia Digital y Engagement

    He visto lo rápido que un solo error factual puede viralizarse en redes sociales. Nuestros lectores también son nuestros verificadores — encontrarán nuestros errores. Usar IA para planificar mejores procesos de verificación nos hace más precisos, pero solo si hacemos la verificación real nosotros mismos.

  4. 4

    No Uses Imágenes Generadas por IA Sin Divulgación

    Usar imágenes generadas por IA en la cobertura noticiosa sin divulgación clara engaña a tu audiencia y socava la función documental del fotoperiodismo.

    Riesgo

    Las imágenes generadas por IA pueden ser fotorrealistas y virtualmente indistinguibles de fotografías reales. Usarlas sin divulgación difumina la línea entre documentación y fabricación, erosiona la confianza en el periodismo visual y puede propagar desinformación. Las audiencias pueden creer que escenas generadas por IA realmente ocurrieron.

    Ejemplo Real

    En 2023, una imagen generada por IA de una explosión cerca del Pentágono se volvió viral en redes sociales, causando brevemente fluctuaciones en el mercado de valores. Las organizaciones de noticias que compartieron la imagen sin verificación contribuyeron a consecuencias reales de contenido visual fabricado.

    Como Evitarlo

    Nunca uses imágenes generadas por IA para ilustrar eventos noticiosos. Si usas ilustraciones generadas por IA para contenido de opinión o crónicas, etiquétalas claramente como generadas por IA. Desarrolla una política de redacción que distinga entre ilustración editorial (donde la IA podría ser aceptable con divulgación) y fotografía noticiosa (donde nunca lo es).

    Conoce al Equipo Journalaism

    Inka Johansson-Varela
    La Pionera — Periodismo Nativo de IA

    La generación de imágenes por IA es una tecnología increíble con usos creativos legítimos, pero no tiene lugar en la fotografía noticiosa. Para ilustraciones, piezas de opinión o contenido de crónicas, úsala con etiquetado claro. Para cobertura noticiosa, quédate con fotografías reales. Siempre.

    Edmund Osei-Harrington
    El Guardián — Estándares Editoriales y Ética

    El poder del fotoperiodismo reside en su veracidad — la fotografía como testigo. Las imágenes generadas por IA destruyen ese pacto. No me importa lo buena que sea la tecnología; una imagen fabricada es una imagen fabricada. Etiqueta todo, y nunca uses imágenes de IA donde los lectores esperan documentación de la realidad.

    Mila Santos-Kim
    La Amplificadora — Audiencia Digital y Engagement

    La capacidad de nuestra audiencia para distinguir lo real de lo falso ya está bajo ataque. Como organización de noticias, tenemos la responsabilidad de ser parte de la solución, no del problema. El etiquetado claro de imágenes de IA no es solo ético — es cómo mantenemos nuestra credibilidad en un panorama de posverdad.

  5. 5

    No Ignores el Sesgo de IA en Tus Herramientas de Reporteo

    Las herramientas de IA llevan sesgos de sus datos de entrenamiento — reflejando y a veces amplificando inequidades sociales. Ignorar estos sesgos significa incorporarlos a tu periodismo.

    Riesgo

    Los modelos de IA entrenados con datos de texto existentes heredan los sesgos presentes en esos datos: estereotipos raciales, suposiciones de género, puntos ciegos culturales y desequilibrios geográficos. Si los periodistas usan la salida de IA sin tener en cuenta estos sesgos, arriesgan reforzar estereotipos dañinos, subrepresentar comunidades marginadas y producir análisis sesgados.

    Ejemplo Real

    Investigadores han demostrado que los modelos de lenguaje de IA asocian ciertas profesiones con géneros y etnias específicas, generan lenguaje más negativo al describir ciertas comunidades y proporcionan información menos detallada sobre regiones y culturas subrepresentadas. Usar tales resultados sesgados sin crítica en el periodismo amplifica inequidades existentes.

    Como Evitarlo

    Siempre evalúa críticamente la salida de IA en busca de sesgos. Pregunta: ¿la perspectiva de quién está centrada? ¿Quién falta? ¿Se están reforzando estereotipos? Cruza el contenido generado por IA sobre comunidades marginadas con fuentes de esas comunidades. Incorpora la conciencia de sesgos en tus programas de capacitación en IA.

    Conoce al Equipo Journalaism

    Inka Johansson-Varela
    La Pionera — Periodismo Nativo de IA

    El sesgo de IA no es un error a corregir — es una característica a gestionar. Cada herramienta de IA lleva los sesgos de sus datos de entrenamiento, y pretender lo contrario es peligroso. Busco activamente sesgos en cada resultado de IA y lo uso como señal para profundizar.

    Edmund Osei-Harrington
    El Guardián — Estándares Editoriales y Ética

    El sesgo siempre ha sido el mayor desafío del periodismo, y la IA introduce nuevas dimensiones. Debemos ser aún más vigilantes sobre representación y equidad al usar herramientas de IA, porque el sesgo algorítmico puede ser más difícil de detectar que el sesgo humano.

    Mila Santos-Kim
    La Amplificadora — Audiencia Digital y Engagement

    Nuestra audiencia es diversa, y notan cuando nuestra cobertura no lo es. Si las herramientas de IA nos empujan hacia un encuadre sesgado, estamos fallando a las mismas comunidades que se supone debemos servir. La revisión de sesgos debería ser tan rutinaria como la revisión ortográfica.

  6. 6

    No Dejes que la IA Reemplace Tus Instintos Periodísticos

    El instinto periodístico — la capacidad de percibir una historia, leer el ambiente o saber cuándo una fuente es evasiva — es una habilidad humana que la IA no puede replicar. No dejes que la conveniencia de la IA erosione estas habilidades esenciales.

    Riesgo

    La dependencia excesiva de la IA para decisiones editoriales puede atrofiar las habilidades de pensamiento crítico, evaluación de fuentes y juicio noticioso que definen el periodismo profesional. Los periodistas que se someten a las recomendaciones de IA sin aplicar su propio juicio se vuelven menos efectivos con el tiempo, no más.

    Ejemplo Real

    Algunas redacciones que automatizaron en gran medida la selección de historias basándose en métricas algorítmicas encontraron que su cobertura se volvía cada vez más estrecha y sensacionalista — optimizada para clics en lugar del interés público. Cuando los editores recuperaron el juicio editorial, la calidad de la cobertura y la confianza de los lectores mejoraron.

    Como Evitarlo

    Usa IA para informar tus decisiones, no para tomarlas. Practica periodismo regularmente sin asistencia de IA para mantener tus habilidades afiladas. Cuando la IA sugiere una dirección, pregúntate: ¿se alinea esto con mi juicio periodístico? ¿Habría llegado a esta conclusión por mi cuenta? Confía en tu formación y experiencia.

    Conoce al Equipo Journalaism

    Inka Johansson-Varela
    La Pionera — Periodismo Nativo de IA

    La IA debería amplificar tus instintos, no reemplazarlos. He aprendido a usar IA como una segunda opinión — cuando está en desacuerdo con mi corazonada, eso a menudo es una señal para investigar más, no para anular mi juicio. Tu olfato noticioso es irremplazable.

    Edmund Osei-Harrington
    El Guardián — Estándares Editoriales y Ética

    El instinto periodístico se construye a lo largo de años de práctica, miles de entrevistas y experiencia ganada con esfuerzo. Ningún algoritmo puede replicar la sensación de que algo no cuadra, o el instinto de hacer una pregunta más. Protege estas habilidades con fiereza.

    Mila Santos-Kim
    La Amplificadora — Audiencia Digital y Engagement

    Los periodistas en quienes nuestra audiencia más confía son los que tienen voces fuertes e instintos agudos. La IA puede ayudarnos a trabajar más rápido, pero nuestros lectores vienen a nosotros por la perspectiva humana, el contexto y el juicio. Esas son las cosas que nos hacen indispensables.

  7. 7

    No Asumas que las Herramientas de IA Son Siempre Precisas

    Las herramientas de IA presentan toda su salida con la misma confianza, sea correcta o completamente fabricada. Asumir precisión sin verificación es una receta para publicar errores.

    Riesgo

    Los modelos de IA no distinguen entre información precisa e imprecisa en sus resultados. Pueden fabricar citas, inventar estadísticas, atribuir mal citas, confundir eventos similares y presentar información desactualizada como actual. El tono confiado de las respuestas de IA hace que los errores sean más difíciles de detectar sin verificación activa.

    Ejemplo Real

    Se han documentado múltiples instancias donde ChatGPT y herramientas similares fabricaron citas de artículos académicos que sonaban auténticas pero no existían, inventaron estadísticas sobre temas reales y confundieron detalles entre eventos históricos similares — todo presentado con el mismo tono confiado y autoritativo.

    Como Evitarlo

    Trata cada resultado de IA como no verificado hasta que se demuestre lo contrario. Desarrolla una mentalidad de 'confía pero verifica': usa IA para velocidad, pero nunca omitas la verificación. Sé especialmente escéptico con números específicos, fechas, citas y referencias — ahí es donde la IA alucina con más frecuencia.

    Conoce al Equipo Journalaism

    Inka Johansson-Varela
    La Pionera — Periodismo Nativo de IA

    Amo las herramientas de IA, pero nunca confío ciegamente en ellas. Los errores de IA más peligrosos son los que suenan completamente plausibles. Me he entrenado para ser especialmente escéptica de la salida de IA que suena demasiado perfecta — eso es a menudo cuando está inventando cosas.

    Edmund Osei-Harrington
    El Guardián — Estándares Editoriales y Ética

    La precisión no es opcional en el periodismo. Las herramientas de IA fallan la prueba de precisión con suficiente frecuencia como para que ningún periodista responsable trate sus resultados como confiables sin verificación. Cada número, cada nombre, cada afirmación debe verificarse. Esto es periodismo básico, con IA o sin ella.

    Mila Santos-Kim
    La Amplificadora — Audiencia Digital y Engagement

    Nuestros lectores nos exigen un alto estándar de precisión, y deberían hacerlo. Cuando publicamos un error que vino de la IA, nuestra audiencia no culpa a la IA — nos culpa a nosotros. La responsabilidad por la precisión siempre recae en el periodista, no en la herramienta.

  8. 8

    No Te Saltes la Curva de Aprendizaje — Invierte en Capacitación en IA

    Lanzarse a la IA sin capacitación adecuada lleva al mal uso, errores y frustración. Invertir en educación estructurada en IA rinde dividendos en calidad, eficiencia y uso responsable.

    Riesgo

    Los periodistas sin capacitación pueden usar mal las herramientas de IA de formas que creen violaciones éticas, publicar errores de IA que no saben detectar, exponer información sensible a servicios en la nube, o frustrarse y abandonar herramientas potencialmente valiosas. La curva de aprendizaje existe por buenas razones.

    Ejemplo Real

    Una encuesta de JournalismAI encontró que las redacciones con programas formales de capacitación en IA reportaron significativamente menos errores relacionados con IA y mayor satisfacción de los periodistas que aquellas que simplemente dieron acceso al personal a herramientas sin orientación. El enfoque de 'descúbrelo tú mismo' consistentemente produjo peores resultados.

    Como Evitarlo

    Invierte en capacitación estructurada de IA en todos los niveles. Comienza con alfabetización fundamental (qué es y qué no es la IA), avanza a habilidades prácticas (ingeniería de prompts, selección de herramientas) y progresa a evaluación crítica (detección de sesgos, flujos de verificación). Haz la capacitación continua, no un evento único.

    Conoce al Equipo Journalaism

    Inka Johansson-Varela
    La Pionera — Periodismo Nativo de IA

    Sé que la capacitación se siente lenta cuando estás emocionado por sumergirte, pero he visto la diferencia entre usuarios de IA capacitados y no capacitados. Los periodistas capacitados obtienen mejores resultados, detectan más errores y encuentran aplicaciones más creativas. La inversión se paga sola en semanas.

    Edmund Osei-Harrington
    El Guardián — Estándares Editoriales y Ética

    No dejamos que los reporteros cubran fuentes para las que no han sido capacitados. ¿Por qué los dejaríamos usar herramientas de IA sin capacitación? La educación adecuada en las capacidades, limitaciones y directrices éticas de la IA es un prerrequisito para el uso responsable, no un extra opcional.

    Mila Santos-Kim
    La Amplificadora — Audiencia Digital y Engagement

    Las redacciones que obtienen más valor de la IA son las que invirtieron primero en capacitación. No se trata de ser lentos — se trata de ser inteligentes. Los equipos bien capacitados producen mejor contenido más rápido y con menos errores. Eso es una victoria para nuestra audiencia.

  9. 9

    No Uses IA para Fabricar Citas o Fuentes

    Usar IA para generar citas falsas, fabricar fuentes o crear opiniones ficticias de expertos es fraude periodístico — punto. Viola todos los estándares éticos de la profesión.

    Riesgo

    La IA puede generar citas convincentes atribuidas a personas reales o ficticias. Usar tales citas fabricadas no es diferente a inventar fuentes — es fraude que puede resultar en despido, acción legal y daño permanente a tu carrera y a la reputación de tu organización de noticias.

    Ejemplo Real

    En 2023, una revista alemana descubrió que uno de sus reporteros galardonados había fabricado fuentes y citas en múltiples historias, algunas ayudadas por generación de texto con IA. El reportero fue despedido, los premios fueron revocados, y la credibilidad de la publicación sufrió un daño significativo a pesar de que el reportero actuó solo.

    Como Evitarlo

    Nunca uses IA para generar citas atribuidas a personas reales. Cada cita en una historia publicada debe provenir de una entrevista real, conferencia de prensa, declaración pública o fuente documentada. Si usas IA para redactar posibles preguntas de entrevista o respuestas anticipadas como preparación, márcalas claramente como ficticias y nunca las publiques como reales.

    Conoce al Equipo Journalaism

    Inka Johansson-Varela
    La Pionera — Periodismo Nativo de IA

    Esto no debería necesitar decirse, pero lo diré de todos modos: fabricar citas es la línea que nunca cruzas, con o sin IA. La IA hace técnicamente más fácil crear citas falsas convincentes, lo que hace nuestra responsabilidad ética aún mayor.

    Edmund Osei-Harrington
    El Guardián — Estándares Editoriales y Ética

    Fabricar citas es el pecado capital del periodismo. La IA no cambia esto. Si acaso, la facilidad con la que la IA puede generar citas convincentes hace que este sea un estándar aún más crítico de hacer cumplir. Cualquier periodista que use IA para fabricar citas debería enfrentar las mismas consecuencias que uno que las fabrica manualmente.

    Mila Santos-Kim
    La Amplificadora — Audiencia Digital y Engagement

    Nuestra relación con nuestra audiencia está construida sobre la promesa de que cuando ponemos palabras entre comillas, alguien realmente las dijo. Romper esa promesa — ya sea por pereza, presión de plazos o conveniencia de la IA — es una traición imperdonable a la confianza del lector.

  10. 10

    No Ignores los Problemas de Derechos de Autor con Contenido Generado por IA

    El panorama de derechos de autor alrededor del contenido generado por IA es complejo y está evolucionando rápidamente. Ignorar estos problemas puede exponer a tu redacción a responsabilidad legal y desafíos éticos.

    Riesgo

    Los modelos de IA se entrenan con vastos conjuntos de datos que pueden incluir material con derechos de autor. El contenido generado por IA puede reproducir inadvertidamente texto protegido, imitar estilos de escritores específicos o generar imágenes que se asemejan a obras protegidas. El estatus legal de la propiedad de derechos de autor del contenido generado por IA sigue sin resolverse en muchas jurisdicciones.

    Ejemplo Real

    Editoriales importantes incluyendo The New York Times han presentado demandas contra empresas de IA alegando infracción de derechos de autor por el uso de datos de entrenamiento. Mientras tanto, la Oficina de Derechos de Autor de EE.UU. ha dictaminado que las obras puramente generadas por IA no pueden tener derechos de autor, planteando preguntas sobre la propiedad del contenido periodístico asistido por IA.

    Como Evitarlo

    Consulta con asesores legales sobre las implicaciones de derechos de autor del uso de IA en tu redacción. Asegúrate de que el contenido generado por IA sea sustancialmente transformado mediante edición humana antes de la publicación. Evita usar IA para imitar estilos de escritores específicos. Mantente informado sobre la evolución de la ley de derechos de autor y las decisiones judiciales respecto al contenido de IA.

    Conoce al Equipo Journalaism

    Inka Johansson-Varela
    La Pionera — Periodismo Nativo de IA

    La ley de derechos de autor está luchando por ponerse al día con la tecnología de IA, y esa incertidumbre es un riesgo que necesitamos gestionar proactivamente. Recomiendo tratar la salida de IA como material en bruto que debe ser sustancialmente transformado por la creatividad humana antes de ser publicable.

    Edmund Osei-Harrington
    El Guardián — Estándares Editoriales y Ética

    Las preguntas de derechos de autor alrededor de la IA son algunos de los problemas legales más consecuentes que enfrenta el periodismo hoy. Hasta que la ley se asiente, peca de precaución. La autoría humana, la transformación sustancial y la consulta legal deberían ser práctica estándar.

    Mila Santos-Kim
    La Amplificadora — Audiencia Digital y Engagement

    Nuestro contenido es nuestro producto, y necesitamos asegurarnos de que realmente lo poseemos. Si hay alguna duda sobre si los elementos generados por IA en nuestro trabajo crean exposición de derechos de autor, esa es una pregunta que necesitamos responder antes de la publicación, no después de una demanda.

¿Te resultó útil este contenido?

Destacado

Programa de Aprendizaje Journalaism

Un programa de aprendizaje estructurado y a tu propio ritmo que te lleva de novato en IA a practicante seguro. Incluye evaluaciones, ejercicios y certificación.

Gratis
A tu propio ritmo
Con certificado