Inteligencia artificial híbrida contra las Fake News
La inteligencia artificial híbrida tratará de ahondar en técnicas de aprendizaje profundo para poner freno a los bulos y noticias falsas, el ‘hiperpartisanismo’ de algunos medios, la proliferación de los discursos de odio y el acoso a las minorías en redes sociales.
[Ciencia – Tecnología / Empresa – Información Digital]
La iniciativa europea HYBRIDS, coordinada desde España, aunará el uso de redes neuronales artificiales con el conocimiento estructurado de expertos que investigarán cómo frenar las noticias falsas, la polarización de los medios, el discurso del odio o el acoso a las minorías en Internet.
Las Fake News avanzan de forma rauda y veloz, mucho más rápidamente que la información veraz y contrastada. Es una carrera contrarreloj difícil de ganar en la que la inteligencia artificial puede suponer un buen impulso.
Poner fin a la desinformación
Esto es lo que explorará en los próximos años HYBRIDS. Este proyecto europeo tratará de ahondar en técnicas de aprendizaje profundo para poner freno a los bulos y noticias falsas, el ‘hiperpartisanismo’ de algunos medios, la proliferación de los discursos de odio y el acoso a las minorías en redes sociales.
Se trata de una iniciativa internacional financiada con 2,9 millones de euros por el programa de investigación e innovación Marie Sklodowska-Curie Doctoral Networks de Horizonte Europa de la Comisión Europea.
Incluye 11 subproyectos diferentes de investigación sobre la desinformación, dos de ellos dedicados a las Fake News.
Su objetivo es encontrar arquitecturas y modelos que ofrezcan mayor confianza respecto a los sistemas de procesamiento natural del lenguaje basados en inteligencia artificial. La idea es generar nuevos sistemas de interpretación neurosimbólica, lo que se conoce como inteligencia híbrida.
Hasta la fecha, no se han realizado demasiadas investigaciones en este campo. Desde HYBRIDS lo achacan a la dificultad para encontrar “personal de alta cualificación en estas disciplinas, tradicionalmente tan alejadas como la ingeniería informática, las ciencias sociales, la comunicación, las ciencias políticas o la lingüística”.
Formación de perfiles en metodologías híbridas
Con esta red doctoral también se pretende contribuir a la formación de estos perfiles en metodologías híbridas.
El investigador a cargo de la iniciativa es Pablo Gamallo, experto en lingüística computacional de la institución que lidera desde España, el CiTIUS (Centro Singular de Investigación en Tecnologías Inteligentes la Universidad de Santiago de Compostela).
Además, participan en ella otros seis países europeos: Francia, Alemania, Italia, Portugal, Países Bajos y Reino Unido, incluyendo seis universidades, tres centros de investigación, dos fundaciones y tres empresas privadas. En España la empresa de Fact Checking Newtral forma parte del consorcio.
Controlar lo que pasa en las cajas negras de la IA
“La detección de la desinformación en sus diferentes manifestaciones es un tema muy complejo y delicado”, comenta Gamallo a SINC.
“Por ello, queremos buscar métodos de Inteligencia Artificial que permitan la introducción de conocimiento de dominio experto y más estructurado que el humano para controlar lo que ocurre dentro de esas cajas negras, en el interior de esos sistemas de IA que son difícilmente interpretables”.
«Creemos en la hibridación también de perfiles técnicos y no técnicos. Algunos subproyectos estarán más enfocados en la creación de las herramientas y otros en la construcción de los conocimientos que se necesitan para que las herramientas funcionen bien”, añade.
Según aclara el investigador a cargo de HYBRIDS, los subproyectos se centrarán exclusivamente en medios de comunicación escritos y redes sociales basadas en texto. No está previsto ninguno que trabaje con vídeos o con audios.
Las barreras de la inteligencia híbrida
Pablo Gamallo asegura que en este momento el ‘estado del arte’ de la Inteligencia Artificial se conformaría, sobre todo, por sistemas que aprenden a partir de muchos datos, pero con “mucha fuerza bruta”, redes neuronales de alta complejidad.
Sin embargo, “la idea es usar los mejores sistemas actuales introduciendo también conocimiento más estructurado o simbólico.
Es decir, puede ser necesario conocer cuáles son los hechos verdaderos en cada dominio, saber cuáles son los argumentos y las premisas para detectar si algo es veraz.
Juntando esos dos sistemas, el neuronal y el estructurado [o Deep Learning] llegamos a los ‘métodos neurosimbólicos’, que son bastante emergentes y de los que hay poco publicado», asegura el lingüística computacional.
Distinguir entre hechos factuales y opiniones
La estructuración de los datos tampoco resulta una tarea fácil o inamovible. Cada temática tiene sus particularidades.
En primer lugar, es necesario “distinguir entre lo que es un hecho factual y es opinión. Vas a los datos que son considerados por expertos como veraces.
Hay que encontrar cuáles son las premisas de las que se parten para que una argumentación resulte correcta”, insiste Gamallo. “También se puede investigar en cuestiones de discurso más ligadas con la coherencia o la cohesión”.
El investigador reconoce que, si ya para un humano distinguir entre hechos factuales y opiniones resulta complejo, aun puede resultarle más difícil a una máquina.
Solo ya la definición de lo que es ‘cierto’ o ‘verdadero’ se ha tambaleado en los últimos años con la llegada de la Covid-19, una situación compleja donde la información sesgada procedente de algunos organismos oficiales y la publicación de estudios científicos que se contradecían rápidamente los unos a los otros pusieron en jaque este concepto.
[…]
Fact Checking
“Si nos referimos a Fact Checking, hay tres cosas que se deben tener en cuenta:
> Un primer proceso, como decíamos antes, es identificar si a partir de muchos textos algo es factual u opinativo”.
> Después, agrega, “necesitamos tener fuentes fiables, las cuales ofrezcan hechos que sean veraces y ahí tendrá que haber especialistas o usarse bases de datos o recursos que la Unión Europea considere fiable, aunque es cierto que ahí hay un grado de subjetividad enorme”.
> Por último, el tercer proceso “sería comparar los hechos identificados en los documentos que se están procesando con esas bases de datos o esos recursos donde están los hechos considerados veraces.
La clave estaría en los perfiles que trabajen en comunicación o Fact Checkers, que dictaminen cuáles son los recursos informativos más fiables. Sin embargo, seguimos en el mundo de la subjetividad», señala.
[…]
La amenaza de ChatGPT
Cuando HYBRIDS se puso en marcha hace unos meses, ChatGPT, de OpenAI, aun no se había puesto a disposición del público general y la inteligencia artificial generativa no había eclosionado aún.
Pablo Gamallo reconoce que, en parte, esta innovación les ha hecho replantearse sus investigaciones, ya que “no estaba previsto cuando lo redactamos”.
“En nuestro caso, para este proyecto en concreto ChatGPT supone más bien una amenaza que una ayuda. Es probable que este y otros modelos similares se utilicen para difundir Fake Fews”. Por lo tanto, subraya, “va a haber desinformación difundida por humanos y otra por máquinas.
Esta última ya la hay, pero no con tanta ‘inteligencia’. Identificar noticias falsas distribuida por bots hiperinteligentes va a ser uno de los desafíos”.
[…]
Alberto Payo
Periodista especializado en tecnología e innovación desde hace más de una década.
Colaborador en diferentes medios de comunicación.
Publicado por la Agencia SINC (Servicio de Información y Noticias Científicas)
19-05-2023
Derechos: Creative Commons
Origen de las imágenes:
dialogopolitico.org
elsevier.com
ami.info
Ver:
> ChatGPT o Google Bard – La OMS pide una IA segura y ética
> Maurits Cornelis Escher – Artista gráfico que llegó a representar el infinito
> Las habilidades que marcarán el mercado laboral de 2023
> La VPN – Ventajas de la protección de la privacidad en la red
> El marketing digital y la inteligencia artificial
> Gemelos digitales y ‘Blockchain’ – Tendencias tecnológicas 2023 – 1
> Internet de las Cosas, Inteligencia Artificial y Metaverso – Tendencias tecnológicas 2023 – 2
> Premios L’Oréal-UNESCO 2023 For Women in Science
> Katherine Johnson – Matemática clave para la llegada a la Luna
> ‘Cerebro(s)’ – Exposición – Conciencia, pensamiento, lenguaje…
> Federico Mayor Zaragoza – Defensor de la paz mundial
> Albert Einstein a 100 años de su visita a Barcelona