La desinformación amenaza la inteligencia de la “Inteligencia Artificial”
En recientes semanas se han incrementado las discusiones, perspectivas y escenarios con respecto al uso de la “Inteligencia Artificial” (IA), a raíz de la popularidad de la plataforma pública y de libre acceso “ChatGPT”.
Dicha herramienta permite hasta ahora a cualquier usuario darse de alta e interactuar con ella por medio del diálogo escrito -yo ya lo hice-.
El sistema responde y argumenta con un nivel significativo de humanización, basado en la información que previamente se le ha ingresado. Especialistas involucrados en el desarrollo de la IA, auguran que a través de su buen uso, ayudará a enriquecer el “pensamiento crítico” y la “expresión creativa” de cualquier persona, sin importar sus conocimientos y capacidades.
A su vez, algunos analistas conocedores del tema, coincidieron recientemente que la inteligencia artificial es un riesgo geopolítico.
La consultora “Eurasia Group” lo considera entre los principales riesgos globales para este año. Dicha firma relata en una editorial que preguntaron a un “chatbot” de IA, porqué representaba un riesgo geopolítico. Sorpresivamente, la respuesta de la herramienta fue que “tiene el potencial disruptivo del balance de poder entre naciones… puede ser usada para manipular la opinión pública e interferir en elecciones, lo cual puede desestabilizar gobiernos y provocar un conflicto”.
Mi análisis y prospectiva:
Los beneficios de la IA son múltiples, desde la automatización y mejora de tareas, hasta un amplio análisis clínico comparativo para tomar la mejor decisión de cómo combatir o curar un padecimiento. No obstante sus innumerables beneficios, el riesgo es latente en la potencial manipulación y creación de percepciones para incidir en la toma de decisiones de la sociedad.
El acceso generalizado del uso de la IA pudiera acelerar y multiplicar el daño potencial de la desinformación, una práctica ya común y probada para influir en las elecciones de cualquier país.
Un suceso detonador de dicho riesgo es cuando líderes antidemocráticos, utilicen la IA para imponer su agenda unilateral y manipular la información a través de la publicación masiva y constante de desinformación. Es indispensable evitar que la IA sea mal utilizada por cualquier ente o individuo, para acreditar y legitimar erróneamente la desinformación.
Por lo tanto, ¿quién debe regularla y controlarla?, ¿gobierno?, ¿sector privado? ¿organismos internacionales?, ¿todos los anteriores? Además, para sumar a la complejidad, se debe asumir que existirán distintas herramientas de IA, creadas por distintos países y empresas.
Los cuestionamientos no son nuevos y ya existen entes que lo analizan, mas definirlo a la brevedad ya es una prioridad, pues a la par de los beneficios, también surgirán nuevas problemáticas. Lamentablemente los procesos regulatorios en cualquier nación, y aún más a nivel global, implican prolongados tiempos de entendimiento, discusión, decisión, aplicación, y ajustes.
Es probable que este año sea considerado como un punto de inflexión para la IA, al facilitar y popularizar su acceso individual, y por una probable acelerada integración en los procesos de empresas, las cuales, o ya la utilizan para ciertas tareas, o se encuentran experimentando con los sistemas más recientes para complementar sus servicios.
Desafortunadamente, la desinformación masificada continúa siendo un reto global no resuelto, y amenaza con nutrir el acervo de datos y conocimientos en el que pudieran basarse algunas plataformas de IA.
La sociedad rápidamente se acostumbrará a utilizar dichas plataformas para enriquecer sus conocimientos y responder a sus cuestionamientos, como se hace hoy en navegadores de Internet. Pudiera convertirse en un elemento adicional para complementar su opinión y generar un juicio de valor.
Reflexión:
¿En un futuro próximo, preguntarán los usuarios a las plataformas de IA por quién deben votar?, ¿la plataforma deducirá una opinión concreta o simplemente mostrará lo que se le ha ingresado?, ¿le harán caso?