¿Qué es verdad? ¿Y qué mentira? ¿Cómo puede ayudar la inteligencia artificial a ofrecer información fidedigna y fiable, para que la sociedad pueda fiarse de lo que lee? Con las Fake News, los valores democráticos se encuentra en peligro, pero la Inteligencia Artificial puede convertirse en el gran aliado del hombre para contrastar la información
Ejercer el periodismo supone utilizar fuentes fidedignas, cuantas más mejor, para analizar con seriedad y de una manera objetiva la información. Con las prisas, internet y el abanico de posibilidades que se ha abierto en las redes sociales, el periodista ha dispuesto de multitud de impactos cuya verosimilitud ha quedado en entredicho. ¿Cómo sabe él que le están contando la verdad, que no le están manipulando?
Ante esta avalancha de noticias, no le ha quedado más remedio que restringir de una manera peligrosa la comprobación de los datos y la calidad dando rienda suelta a las peligrosas fake news que falsean con fotografías o vídeos la realidad. Hasta la archi famosa Rosalía ha tenido que hacer frente a un vídeo en la que salía desnuda, anunciando que había sido producido por la IA (Inteligencia Artificial). Para evitar que esto siga surgiendo, la nueva herramienta de la Inteligencia Artificial bien utilizada se convierte en la salvación del periodismo.
La salvación del periodismo
¿Pero cómo? En Diario Marín hemos querido analizar hasta qué punto puede salvarnos y estas son las conclusiones.
- Validando las fuentes oficiales.
- Captando información oficial de múltiples registros.
- Analizando los datos de manera más precisa que el ser humano.
- Imaginando y ofreciendo inspiración para crear ideas.
- Mostrando fotografías reales.
- Eludiendo las «fake news»
El ser humano se equivoca pero aprende de sus errores. La IA también se confunde y mucho, sin embargo, conforme se va tallando y perfeccionando cada vez implica más aciertos y menos errores. La inteligencia artificial se basa en modelos de lenguaje extensos con tipologías de aprendizaje automáticas entrenadas en un conjunto de datos masivos de texto y código. Pueden generar texto, traducir idiomas, escribir diferentes tipos de contenido creativo y responder a sus preguntas de manera informativa.
Si entrenamos la IA con texto o código erróneo el resultado será erróneo. Imaginemos que somos un entrenador de futbol y entrenamos a nuestros jugadores a jugar con un balón cuadrado. Toda la táctica y estrategia se basará en jugar con un balón cuadrado. Sin embargo, cuando salten al campo a jugar su primer partido y los jugadores se encontraran con un balón redondo y tendrán dificultades para adaptarse a la nueva condición. No jugarán bien. Nosotros, el ser humano, somos el entrenador, y al ver ese resultado decidiremos que hay que modificar el entrenamiento para que los jugadores aprendan a jugar con un balón redondo con unos datos nuevos para su entrenamiento.
Hay varias razones por las que los modelos de lenguaje extensos pueden cometer errores. Una razón es que los conjuntos de datos en los que se entrenan a menudo son imperfectos (balón cuadrado). Estos conjuntos de datos pueden contener errores gramaticales, ortográficos y de sentido. Los modelos de lenguaje extensos pueden aprender estos errores y luego repetirlos en sus propias respuestas puesto que se entrenan con ellos.
Otra razón por la que los modelos de lenguaje extensos pueden cometer errores es que son grandes y complejos. Estos modelos tienen millones o incluso miles de millones de parámetros que deben ajustarse durante el proceso de entrenamiento. Es posible que los modelos no se ajusten correctamente a sus conjuntos de datos, lo que puede provocar errores.
Herramientas disponibles
Existe actualmente un boom de herramientas disponibles para utilizar inteligencia artificial. La IA se utiliza en una amplia gama de aplicaciones, desde la robótica hasta el reconocimiento de voz. Algunas de las herramientas más comunes de IA incluyen:
- Chatbots: Chatbots son programas informáticos que pueden simular conversaciones con humanos. Se utilizan en una variedad de aplicaciones, como atención al cliente, educación y entretenimiento.
- Reconocimiento de voz: El reconocimiento de voz es una tecnología que permite a los ordenadores entender el habla humana. Se utiliza en una variedad de aplicaciones, como reconocimiento de voz, dictado y traducción automática.
- Aprendizaje automático: El aprendizaje automático es un campo de la IA que se centra en el desarrollo de algoritmos que pueden aprender de los datos sin ser programados explícitamente. Se utiliza en una variedad de aplicaciones, como reconocimiento de imágenes, procesamiento de lenguaje natural y detección de fraudes.
- Visión por computador: La visión por computador es un campo de la IA que se centra en el desarrollo de algoritmos que pueden interpretar la información visual. Se utiliza en una variedad de aplicaciones, como reconocimiento de objetos, seguimiento de movimiento y visión artificial.
- Robótica: La robótica es un campo de la IA que se centra en el desarrollo de robots. Los robots son máquinas que pueden realizar tareas de forma autónoma. Se utilizan en una variedad de aplicaciones, como fabricación, atención médica y servicios.
Chatbots
Están los chatbots que son básicamente un entorno web en donde haces una pregunta y un modelo de inteligencia artificial te da una respuesta. El paradigma de la búsqueda por internet que hemos utilizado durante años es que si tenemos una duda sobre algo vamos a un buscador como Google, escribimos lo que queremos buscar, y nos aparece una retaíla de páginas indexadas de mayor a menor relevancia.
Si por ejemplo queremos saber la fecha en la que nació Napoleón Bonaparte se abre un buscador y ponemos ese criterio de búsqueda y aparecen páginas webs que tienen esa información, a las cuales podemos ir haciendo clic y llegando a esa página que muchas veces está llena de publicidad. Con los chatbots te ahorras todo ese proceso puesto que le escribes «cuando nació napoleón bonaparte» y la IA te devuelve la respuesta en segundos.
¿Pero como podemos utilizar ChatGPT o Bard de Google para mejorar nuestro trabajo? Ambas páginas web nos permiten trabajar a diferentes niveles. Podemos plantearle diferentes preguntas como puede ser «crea un título para un artículo sobre inteligencia artificial y su uso en periodismo». Y este es el resultado de ChatGPT.
¡Por supuesto! Aquí tienes cinco títulos para un artículo sobre inteligencia artificial y su uso en el periodismo: 1. "Escribiendo el Futuro: La IA como Aliada del Periodista" 2. "Noticias 2.0: Cómo la Inteligencia Artificial Está Cambiando la Cara del Periodismo" 3. "De Chatbots a Redactores Virtuales: La Evolución de la IA en el Periodismo" 4. "Descifrando la Verdad: El Papel de la IA en la Lucha contra las Noticias Falsas" 5. "Periodismo 4.0: Cómo la Inteligencia Artificial Está Reinventando las Redacciones"
Puedes también mandarle un texto y decir que te diga si hay algo incorrecto en él. Por ejemplo, le preguntamos a Bard sobre si es cierto un rumor que hubo sobre un supuesto positivo por COVID durante la campaña electoral catalana de Salvador Illa y éste es la respuesta de Bard.
Basándome en la información que he encontrado en los resultados de búsqueda, la afirmación de que Salvador Illa dio positivo por Covid durante la campaña electoral catalana es una **fake news**. En febrero de 2021, durante la campaña electoral catalana, se difundió una imagen de una supuesta prueba PCR de Salvador Illa con resultado positivo. La imagen fue compartida por el exmiembro de Ciudadanos A. P., quien afirmó que Illa había ocultado su positivo para evitar someterse a un test de antígenos en el debate electoral de TV3. Sin embargo, la imagen de la prueba PCR resultó ser falsa. Tanto Illa como el PSC negaron que el exministro hubiera dado positivo por Covid. Además, la prueba PCR que se difundió tenía un número de identificación incorrecto. Por lo tanto, la afirmación de que Salvador Illa dio positivo por Covid durante la campaña electoral catalana es una **fake news**.
Además, tanto ChatGPT como Bard permiten crear textos según nuestras indicaciones. Estos texto pueden no ser del todo correctos y en esos casos siempre la IA nos avisa que no hay que tomárselo al pie de la letra. Por ejemplo.
Imágenes generadas por IA
La tecnología siempre va por delante de la legislación. El periodismo tiene que estar a la vanguardia de la tecnología y debe saber adaptarse a ella pero siempre en un marco legal. Las imágenes generadas por IA tienen el potencial de revolucionar la forma en que creamos y consumimos imágenes. Pueden ayudarnos a visualizar conceptos abstractos, a crear nuevas formas de arte y a comunicarnos de manera más efectiva.
Sin embargo, también hay algunos desafíos que deben abordarse antes de que las imágenes generadas por IA puedan alcanzar su máximo potencial. Por ejemplo, es importante asegurarse de que estas imágenes sean éticas y no se utilicen para fines dañinos. Además, es importante que las imágenes generadas por IA sean creíbles y no se confundan con imágenes reales. El Papa Francisco con una apariencia de luchador de boxeo puede llevar a confusión como se ve a continuación:
Hay varias páginas para generar estas imágenes. Compartimos dos que son de uso gratuito:
- Leonardo.ai.
- Ideogram.ai.
Ideogram.ai
La apuesta de Google para crear imágenes mediante inteligencia artificial es Ideogram. Una revolución de esta herramienta es que permite crear texto según nuestras indicadores (prompts). Algunos ejemplos se ven a continuación:
Leonardo.ai
Otra herramienta para generar imágenes de forma gratuita es Leonardo. Tiene un contador en forma de tokens que se resetea cada día. El total de tokens es 150 y según las imágenes que queramos crear y su calidad descuenta una cantidad de tokens diferente. Algunos ejemplos pueden verse a continuación:
Detectar imágenes falsas
Con todas estas herramientas a disposición de cualquier persona surge la pregunta de… ¿cómo puede detectar una imagen falsa de una generada mediante inteligencia artificial?. Google hace poco a dado respuesta a esta interrogante mediante la creación de SynthID.
La capacidad de detectar contenido producido por inteligencia artificial se erige como un pilar esencial en la construcción de la confianza en la información. A pesar de que no se postula como una panacea frente al flagelo de la desinformación, SynthID se perfila como una solución técnica precoz para hacer frente a esta urgente amenaza en el ámbito de la seguridad de la inteligencia artificial.
Este innovador avance tecnológico es fruto de la colaboración entre Google DeepMind y Google Research. SynthID, en un futuro cercano, podría extender sus dominios hacia otros modelos de inteligencia artificial y hay planes de integrarlo en una gran variedad de productos. El periodismo pronto verá está herramienta o herramientas similares a su disposición para de este modo detectar en segundos si una imagen es falsa o no. De esta manera, se empoderará a individuos y organizaciones para abordar de manera responsable el contenido generado por la inteligencia artificial.
Referencias
- https://betterimagesofai.org/images
- https://www.deepmind.com/blog/identifying-ai-generated-images-with-synthid
- https://ideogram.ai/
- https://app.leonardo.ai/