¿Nos amenaza la inteligencia artificial? | El Nuevo Siglo
Martes, 4 de Abril de 2023

Aporte comparable con Internet y los celulares

* Los riesgos de que sea mal utilizada

 

 

En forma sorpresiva e inesperada, el pasado 22 de noviembre el mundo se encontró con ChatGPT, una herramienta tecnológica basada en inteligencia artificial generativa, creada por la empresa OpenAI de Estados Unidos, con el respaldo de Microsoft.

Funciona básicamente como un motor de búsqueda tipo Google, pero con la colosal diferencia de que interactúa con los usuarios y está en capacidad de dar respuestas extensas sobre múltiples temas y, además, redacta textos y crea imágenes. Es fácil de utilizar y el tono directo y convincente de su conversación, así como la facilidad con la cual da respuestas o escribe trabajos extensos -en apariencia brillantes- sobre múltiples temas, deslumbran a la gente.

En sus primeros dos meses de funcionamiento alcanzó 100 millones de usuarios, con lo que se convirtió en la aplicación de consumo de más rápido crecimiento en la historia.

Lo más importante, sin embargo, es que marca el inicio de una nueva era, comparable para muchos con la invención de la imprenta. Según Bill Gates “la inteligencia artificial y la repentina explosión de chatbots es tan revolucionaria como los teléfonos móviles e Internet”. Marca, igualmente, la explosión de nuevas herramientas que transformarán las actuales formas de pensar, crear, comerciar, competir, gobernar y de desarrollar múltiples actividades en la vida cotidiana y en el trabajo.   

Lo saben bien los gigantes de la tecnología que realizan enormes inversiones en inteligencia artificial. Microsoft invirtió 10 mil millones de dólares en ChatGPT e integró IA a su motor de búsqueda Bing, que después de años de discreta presencia ahora crece exponencialmente y también estará en las aplicaciones de Office -Word, Excel, Power Point y Outlook-. Google desarrolla y pronto comenzará a competir con Bard y proyecta lanzar la versión de su motor de búsqueda potenciado con inteligencia artificial, este mismo año.

Varios de los titanes de la tecnología como Steve Wozniac, cofundador de Apple, o Elon Musk, cofundador de OpenAI, lanzaron la semana anterior una alerta temprana acerca de la velocidad con el cual se impulsa esta innovación y, junto con científicos y otros protagonistas de la industria, solicitaron una pausa de seis meses para evaluar los posibles riesgos de la inteligencia artificial generativa, como potenciar la desinformación o su uso por delincuentes o terroristas.

Afectará también el trabajo. Una investigación de la propia OpenAI estimó que al menos 19% de los trabajadores podrán ver afectadas hasta 50% de sus tareas. Aun así hoy las mayores preocupaciones de quienes dominan el tema se orientan más hacia la ciberseguridad, la privacidad y la ética.

En principio se podría decir que no es “inteligencia” porque se fundamenta en la capacidad algorítmica de detectar patrones en forma unidimensional, mientras la inteligencia es humana y es dinámica -razonamiento formal, lógica contextual y emociones-, características inalcanzables para una máquina. ChatGPT hace predicciones con base en cantidades monumentales de datos previamente ingeridos, y funciona bien como enciclopedia, lo cual hace su comunicación sorprendente y atractiva, aun cuando la información que aporte sea a veces incorrecta. De ahí el temor de que sea utilizada para fines indeseables, maliciosos o ilegales. Su capacidad de generar narrativas convincentes (así sean falsas) aumenta el peligro de que se convierta en fuente descomunal de desinformación. A ello se suma que ya hay expertos en “jailbreak”, mecanismos para engañar al sistema y vulnerar las protecciones de seguridad implementadas por los desarrolladores.

Sin duda herramientas como ChatGPT pueden facilitar a delincuentes, en términos de tiempo y costo, realizar ataques cibernéticos y campañas de desinformación. Inquieta especialmente la gran capacidad para generar imágenes y videos falsos, tema crítico en casos de reclamos de seguros o en acciones gubernamentales o judiciales. 

Todo ello fortalece la convicción de que, si bien el nuevo aporte tecnológico representaría en su conjunto un gigantesco avance para la humanidad, es indispensable crear más reglamentaciones barreras y seguridad en torno de su uso. Son preocupaciones concretas y claras acerca cómo la “inteligencia artificial” puede engañar y perjudicar a las personas, en especial a los niños. En concordancia con ello, Italia fue el primer país que prohibió y bloqueó el programa.

ChatGPT marca la nueva relación de los humanos con la tecnología pero, a la vez, ratifica que la tecnología va siempre adelante y más rápido que la capacidad de gobiernos y organizaciones para regularla y reglamentarla. No hay dicha completa.