Inteligencia artificial
La inteligencia artificial en la encrucijada: qué hay detrás del ruido sobre ChatGPT

La popularización y el hype en torno al software generador de textos ha llevado los riesgos de la IA al debate público. Voces expertas reclaman que su desarrollo se aleje de una vez por todas del afán de lucro.

@pjarandia

16 abr 2023 06:00

“Creemos que la inteligencia artificial prácticamente no tiene límites cuando de hecho es extremadamente limitada”. Ramón López de Mántaras describe así en un artículo reciente qué podemos esperar de una tecnología que desde hace semanas está en boca de todos. De Mántaras no es precisamente un cualquiera: el científico catalán, profesor del CSIC, investiga este campo desde la década de 1970 y ha sido premiado por asociaciones de investigadores en todo el mundo. “Y lo que es muy importante: [la IA] no tiene nada que ver con la inteligencia humana”.

En noviembre pasado la compañía estadounidense OpenAI lanzó la última versión de ChatGPT, un software de generación de textos al que cualquiera puede acceder sin coste aparente —los usuarios sí han de ceder a la empresa datos como su edad o teléfono móvil, además de la información ofrecida durante la conversación—. A partir de la pregunta o indicación adecuadas, la herramienta es capaz de devolver un texto generalmente bien escrito y coherente. Aunque si la charla se complica es fácil que el programa caiga en errores en sus respuestas.

La popularización de estos robots conversacionales plantea muchas preguntas. Muchas de ellas tienen que ver con sus riesgos, pero también con sus limitaciones. ¿Tienen algo de inteligentes estos programas informáticos? 

Desde su lanzamiento los usuarios mundiales de este programa se han disparado. También los titulares en los medios de comunicación especulando sobre las supuestas capacidades de este producto para replicar la inteligencia y creatividad humanas. Algunas empresas incluso han justificado despidos bajo el argumento de que esta rama de la IA puede ya llevar a cabo tareas hasta ahora hechas por trabajadores de carne y hueso.

Las grandes tecnológicas de Silicon Valley están tirando del carro de esta perfecta campaña de marketing. Microsoft, tras inyectar 10.000 millones de dólares en OpenAI, ya ha anunciado que integrará ChatGPT en su buscador Bing. Mientras que Google hará lo mismo con Bard, su propio chatbot generativo. Su objetivo, según han declarado, es ir incorporando versiones de esta tecnología a otros de sus servicios, desde el correo electrónico a los procesadores de texto que diariamente usan millones de personas en todo el mundo.

Los riesgos de los “loros estocásticos”

La popularización de estos robots conversacionales plantea muchas preguntas. Muchas de ellas tienen que ver con sus riesgos, pero también con sus limitaciones. ¿Tienen algo de inteligentes estos programas informáticos? 

Citando al filósofo de la ciencia Daniel Dennet, De Mántaras explica que lo que ChatGPT y otras herramientas similares tienen “no es inteligencia sino habilidades sin comprensión”. Estas habilidades se podrían comparar por ejemplo con el montaje de un tren de juguete en el que hay que acertar la posición en la que va cada vagón del tren que queremos ensamblar.

Softwares como ChatGPT son muy buenos combinando secuencias de palabras a partir de la probabilidad de que tenga o no sentido ubicarlas en un lugar determinado de la frase. Pero carecen de referencia alguna sobre el significado de cada una.

Son por tanto sistemas —en palabras de De Mántaras— “muy hábiles llevando a cabo tareas concretas” pero que no comprenden nada sobre la naturaleza de estas tareas, “debido a la ausencia de conocimientos generales sobre el mundo”. Esta habilidad para encadenar palabras se construye a partir de patrones detectados en la ingente cantidad de información con la que estos programas han sido entrenados.

Softwares como ChatGPT son muy buenos combinando secuencias de palabras a partir de la probabilidad de que tenga o no sentido ubicarlas en un lugar determinado de la frase

En 2021 varias investigadoras publicaron un artículo sobre los peligros de estos modelos de lenguaje, a los que bautizaron como “loros estocásticos”. O lo que es lo mismo, máquinas capaces de repetir aquello que han observado muchas veces, pero sin atender a su veracidad.

En el texto las autoras, entre otras recomendaciones, exigían un mayor cuidado al trabajar las bases de datos con las que estos algoritmos se construyen y no volcar en ellos toda la información presente en Internet —precisamente lo que hace ChatGPT—. O realizar pruebas controladas de los sistemas antes de abrirlos al público, para asegurarse de que su uso no infringe daños o va en contra de los valores éticos de quien lo impulsa.

En las últimas semanas, al mismo tiempo que la IA generativa ganaba terreno en las conversaciones en el ascensor, el trabajo o el bar, se ha sucedido también un goteo de historias inquietantes en torno a la utilización de estos programas.

En EE UU, un profesor universitario explicó a comienzos de abril a The Washington Post cómo se sintió después de que ChatGPT le acusara de haber abusado de un alumno en un viaje de estudios. Algo que, en el mundo real, nunca ocurrió. El programa incluso usó como fuente de su acusación un artículo del citado medio. Un artículo, de nuevo, que nunca ha existido. “Fue bastante escalofriante”, aseguró el docente. “Una acusación de este tipo es increíblemente dañina”. 

Su capacidad para vestir como cierta información engañosa o directamente falsa no es la única preocupación en torno a estas tecnologías. También lo es el impacto que su uso pueda tener en contextos determinados o frente a personas vulnerables. En Bélgica, un ciudadano se quitó la vida después de mantener largas conversaciones con un bot de IA que le envió mensajes confusos.

El argumento habitual de las tecnológicas creadoras de estos productos es que estamos todavía ante modelos en fase de desarrollo, cuya precisión y fiabilidad irá mejorando con su uso. Pero cada vez más voces piden que en ese mientras tanto los gobiernos fijen límites o directamente prohíban su uso.

Italia ha sido el primero en Europa en bloquear el uso de ChatGPT en su territorio, mientras investiga si el tratamiento que la aplicación hace de los datos de sus usuario

Este último paso es el que ha tomado la agencia italiana de protección de datos. El país transalpino ha sido el primero en Europa en bloquear el uso de ChatGPT en su territorio, mientras investiga si el tratamiento que la aplicación hace de los datos de sus usuarios —y que sirven para su entrenamiento— se ajusta a la ley europea.

Entre otros argumentos el regulador alega que la información suministrada por la aplicación no siempre es verídica —lo que ”da lugar a un tratamiento inexacto de los datos personales”— y critica que no haya un control real de la edad de los usuarios que la utilizan, abriendo la puerta a “la exposición de los menores a respuestas totalmente inadecuadas con respecto a su nivel de desarrollo y autoconocimiento”. A pesar de que OpenAI desaconseja su uso entre menores de 13 años, cualquiera puede acceder a la aplicación.

España podría seguir los pasos de Italia en las próximas semanas. La agencia española de protección de datos (AEPD) ha pedido a la Unión Europea que evalúe las implicaciones de ChatGPT en la privacidad de los usuarios. La AEPD entiende que las operaciones de procesamiento global que “pueden tener un impacto significativo en los derechos de las personas y requieren decisiones coordinadas a nivel europeo”, señaló un portavoz de la agencia.

¿Qué camino seguir?

El debate sobre cómo aplacar los riesgos de la IA no es nuevo. Desde hace años investigadores, activistas y comunidades afectadas por estas tecnologías alertan sobre sus peligros. Estos no se reducen a los errores o imprecisiones que el software pueda cometer, sino que incluyen cuestiones relacionadas con las decisiones humanas detrás de su diseño y quién toma éstas —casi siempre grandes corporaciones occidentales en busca del máximo lucro—.

Los efectos negativos de la IA han sido ampliamente documentados. Y van desde el deterioro de los derechos laborales de trabajadores en todo el mundo a la datificación de los sistemas de control en las fronteras que castigan a la población migrante. Los gobiernos también usan herramientas de este tipo para castigar a las capas sociales más pobres y policías y empresas insisten en utilizar el reconocimiento facial, una técnica poco precisa que discrimina a las personas por su origen étnico.

A finales de marzo la controvertida organización Future of Life Institute publicó una carta abierta reclamando una pausa de “al menos seis meses en el desarrollo y pruebas de sistemas de IA más poderosos que GPT4”, la última versión del popular algoritmo. La misiva, que ya lleva cerca de 20.000 adhesiones, incluyó la firma de un variado grupo de personalidades. Entre ellas la del segundo hombre más rico del mundo, Elon Musk, uno de los fundadores e inversores de OpenAI. De Mántaras, además de otros muchos investigadores de prestigio, también figura en la lista.

Los firmantes reclaman un desarrollo seguro de estas herramientas y que no se abran al público hasta garantizar que sus efectos serán positivos para la ciudadanía global. Y advierten de la “carrera sin control” en la que han entrado los grandes laboratorios de IA para crear “poderosas mentes digitales que nadie —ni siquiera sus creadores— puede entender, predecir o controlar de forma fiable”.

La carta en cuestión ha sido ampliamente recogida en medios de comunicación de todo el mundo. Pero también ha recibido matizaciones y críticas desde algunas de las voces que más tiempo llevan remando a favor de un desarrollo ético de la IA.

The Distributed Artificial Intelligence Instiute (DAIR), fundado por la investigadora Timnit Gebru —ex miembro del equipo ético de Google, de donde fue despedida por sus denuncias contra la discriminación de la compañía, y una de las autoras del artículo sobre los “loros estocásticos”—, ha respondido criticando que la carta alimenta “el alarmismo y el hype” en torno a estas herramientas y deja de lado los “daños reales” que el despliegue de estos sistemas ya infringe en la actualidad.

Desde diversos sectores atribuyen a estos chats conversacionales una autonomía que, por ahora, no tienen. “La responsabilidad no recae en los artefactos, sino en sus creadores”, argumentan

Para Gebru y el resto de autoras el lenguaje utilizado en la carta “infla las capacidades de los sistemas automatizados y los antropormofiza”, engañando a la gente “haciéndole creer que hay un ser sensible” detrás de estos modelos. Esto “induce a confiar acríticamente en los resultados de sistemas como ChatGPT” y les atribuye una autonomía que, por ahora, no tienen. “La responsabilidad no recae en los artefactos, sino en sus creadores”, argumentan.

“La actual carrera hacia ‘experimentos de IA’ cada vez más potentes no es un camino preestablecido en el que nuestra única elección es la velocidad a la que correr, sino un conjunto de decisiones impulsadas por el afán de lucro. Las acciones y decisiones de las empresas deben estar reguladas para proteger los derechos e intereses de las personas”, concluyen.

Informar de un error
Es necesario tener cuenta y acceder a ella para poder hacer envíos. Regístrate. Entra na túa conta.

Relacionadas

Internet
Chelsea Manning “Esta internet que conocemos ahora es la primera de muchas”
Chelsea Manning participó en el Web Summit, el congreso de internet más grande del planeta cuya última edición se celebró en Río de Janeiro (Brasil) del 1 al 3 de mayo. Allí se produjo el encuentro con El Salto.
Inteligencia artificial
Tradución e IA Cando traducen as máquinas
Co aumento da tradución automática con Intelixencia Artificial, sobre todo na tradución audiovisual, profesionais defenden a súa profesión e a creatividade do que fan.
Inteligencia artificial
Inteligencia Artificial La IA, una tecnología con tanto potencial como falsos mitos
Aunque no parece probable que reemplace al ser humano a nivel laboral, es inevitable que su aplicación produzca un gran impacto en la sociedad, provocando la desaparición de muchos oficios y la aparición de otros nuevos.
Agus
17/4/2023 8:16

El círculo vicioso se cierra cuando se robotiza a la población, cuando se piden habilidades a humanos (léase Bolonia y EEES) y la comprensión hace tiempo que ni está ni se la espera.

0
0
jlcr
16/4/2023 17:25

Buen resumen de la situación actual.

0
0
djcesarrubio
16/4/2023 14:01

¿Puede el ser humano, un animal no inteligente, crear tecnología inteligente? ¿A partir de qué inteligencia? Cuando se anuncia algún avance en este ámbito del conocimiento siempre me pregunto lo mismo, es decir, el aparatito en cuestión viene para solucionar alguno de los problemas que asolan al planeta, léase desigualdad, miseria, hambre, cambio climático, corrupción, guerra, capitalismo o la otra cara de la moneda, fascismo, etc. Siempre obtengo la misma respuesta, lo cual me deja un sabor agridulce pues lo intuía, y es que todo lo que no conteste a esas preguntas de forma afirmativa es una estafa, un engaño, es una sombra reflejada en las paredes de la famosa cueva de Platón.

2
0
Política
Política Río revuelto a izquierda y derecha en la antesala de la investidura de Feijóo
La convulsión interna es el rasgo común de todos los partidos en momentos de máxima tensión por evitar una repetición electoral. La mayoría plurinacional logra su segundo éxito parlamentario pero quedan semanas de negociación.
Política
XV Legislatura Garzón se distancia de Díaz y sus derivas “unilaterales”
El líder de Izquierda Unida aboga por la convocatoria de primarias para la reformulación de un “frente amplio” en el que Movimiento Sumar “sea un partido más” y critica a la vicepresidenta por haber escogido a dedo las portavocías.
Argentina
Personas desaparecidas Equipo Argentino de Antropología Forense: cuarenta años buscando la verdad
El EAAF se creó para identificar los restos de las personas desaparecidas tras la dictadura argentina. Desde entonces ha estado involucrado en investigaciones en más de 65 países. Actualmente busca crear una oficina en España.
Racismo
Violencia en el transporte Renfe pide apartar a cuatro agentes de seguridad tras una agresión racista en Barcelona
Un vídeo de seis minutos que circula por las redes deja buena constancia de una actuación desmedida de cuatro agentes de seguridad contra un joven negro en la estación de Plaça de Catalunya en Barcelona.
Accidentes laborales
Accidentes laborais A morte dun traballador migrante esmagado nun estaleiro pon en guerra o naval galego
Os sindicatos CIG, CCOO e UXT sinalan a falta de compromiso da Xunta de Galicia e a Inspección de Traballo que “desatenderon denuncias” polas condicións de traballo do estaleiro Armón e das súas ETT.
Memoria histórica
Memoria histórica El Ayuntamiento de Palma paraliza el derribo del monumento fascista de Sa Feixina
La coalición de izquierdas Con Málaga pide la demolición del monolito homenaje al Crucero Baleares, que bombardeó la costa malagueña durante La Desbandá.
Cumbre Social Granada
Cumbre Social Granada Más allá de la cumbre de líderes de la UE: construir otra Europa desde Granada
La Cumbre Social de Granada será el “centro” durante dos semanas de los movimientos sociales, ecologistas, anticapitalistas, feministas y antirracistas frente al Consejo Europeo extraordinario que se celebra en la ciudad el próximo 5 y 6 de octubre
Memoria histórica
Exhumación Recuperando a memoria de catro represaliados polos falanxistas en Bértoa
Atopan no cemiterio de Bértoa as primeiras evidencias dos posibles restos de Francisco Miguel Fernández, Juan Boedo, Andrés Pinilla e Pedro Pinilla, represaliados polos falanxistas no ano 36.

Últimas

Política
Política Sánchez ganaría las elecciones y Sumar desbancaría a la ultraderecha, según el CIS
El PSOE conseguiría el 33,5% de los votos, el PP pasaría a ser segunda fuerza con el 31,7% de los apoyos y Sumar se consolidaría como tercera con el 11,9% de los sufragios.
Precariedad laboral
Precariedad laboral Trabajadores de una cafetería de la Universidad Politécnica de Madrid llevan tres meses sin cobrar
Más de tres decenas de estudiantes acudieron a una concentración en solidaridad con la plantilla, una acción que, según denuncian, terminó con “agresiones” por parte de un responsable de una escuela técnica.
Centros de Internamiento de Extranjeros
Racismo Cies No denuncia espionaje policial en las visitas a internos en Zapadores
El Defensor del Pueblo ha abierto una investigación ante las repetidas denuncias de espionaje por parte de colectivos de apoyo a las personas internas en el CIE valenciano, una práctica que va en contra de resoluciones judiciales previas.
Opinión
Opinión Señoros S.A.
Las declaraciones machistas de Alfonso Guerra sobre Yolanda Díaz se sustentan en la creencia de que las mujeres no debemos estar en la esfera pública y mucho menos haciendo política.
Más noticias
Laboral
Laboral CGT se manifiesta por la aplicación de los coeficientes reductores de jubilación en trabajos penosos
Ante la falta de información de ciertas empresas sobre sus índices de penosidad, insalubridad, mortalidad o toxicidad, el sindicato denuncia la inacción de los ministerios de Trabajo y Seguridad Social en expedientes de jubilación anticipada.
Crímenes del franquismo
Represión franquista La Fiscalía pide una investigación por torturas durante el franquismo por primera vez en la historia
Las torturas sufridas por el sindicalista Carles Vallejo en la comisaría de Vía Laietana durante 21 días podrán ser investigadas gracias al beneplácito de la Fiscalía de Barcelona, amparada en la Fiscalía General del Estado.
Opinión
Opinión El hambre y la galleta
Con nostalgia, mi abuela me habla de la niña que fue, de todos sus hermanos, de lo rápido que aprendieron a utilizar todos los aperos y de cómo las manos les crecían a mayor ritmo que el resto del cuerpo a fuerza de trabajo.
Residencias de mayores
Residencias Familiares y trabajadoras piden que Europa investigue lo que ocurrió en las residencias madrileñas
Marea de Residencias vuelve a Bruselas para pedir que una misión de europarlamentarios valore la acción del Gobierno madrileño en la gestión de los centros sociosanitarios al inicio de la pandemia por covid.
LGTBIQ
Bisexualidad El Club de los Indecisos
Artículo por el Día Internacional de la Bisexualidad.

Recomendadas

Actualidad africana
Actualidad africana Los cambios no detienen la rueda de la violencia en diferentes puntos del continente
La inseguridad fue uno de los factores que debilitó a los gobiernos electos en el Sahel y que explicó el recibimiento como héroes de los militares tomaron el poder en algunos de estos países.
Política
XV Legislatura El PSOE evita hablar de amnistía, pero el consenso con Catalunya empuja a Feijóo al precipicio
El bloque progresista trata de ensanchar “con discreción” un acuerdo con el independentismo y los agentes sociales mientras un Partido Popular errático es incapaz de elaborar una estrategia política sin contradicciones.
Fútbol
Mar Mas (Asociación Mujeres para el Deporte Profesional) “Hay muchos Rubiales dentro del mundo del deporte”
La presidenta de la Asociación Mujeres para el Deporte Profesional (AMDP) explica la reivindicación de federaciones bicéfalas o independientes para que el deporte femenino supere los tutelajes del masculino.
Colombia
Un año de Petro Desmantelar el negocio del narcotráfico: hacia una nueva política de drogas en Colombia
Cuando se cumple un año de Gobierno de Gustavo Petro, el Gobierno de Colombia ha tomado la iniciativa mundial en proponer un cambio de paradigma en el tratamiento del comercio mundial de drogas psicoactivas.