[Tendenc-IA] El futuro de la IA

Escrito por Jordi Linares

Sí, muchos que trabajamos en IA estamos bastante desbordados por lo rápido de los avances en determinados campos, especialmente en la nueva IA generativa y, observando en primera persona cómo los nuevos LLMs como chatGPT-4 o Claude pueden sorprendernos con grandes habilidades no previstas. Y también, sí, estamos preocupados.

Efectivamente, estas nuevas herramientas, sobre todo cuando generen productos verticales o especializados, pueden afectar al mercado laboral. Pero no dejo de ver que de una manera muy positiva en muchos casos. El atasco administrativo al que nos enfrentamos en las administraciones públicas no puede ser resuelto de otra forma. Esos montones de expedientes en los juzgados pueden coger velocidad de la luz con estas herramientas. La gestión de prestaciones y ayudas, la tramitación de cualquier requerimiento. Esto puede cambiar muy rápidamente. No se trata sólo de gastar GPT-4, se trata de crear herramientas verticales especializadas sobre estos modelos pre-entrenados.

¿Y la medicina? ¿Y dotar a los médicos de un asistente que le evite perder un tiempo precioso en leer grandes historiales y sacar conclusiones? ¿Y si puede disponer de este tiempo para hacer realmente medicina e interactuar con el paciente?

¿Y por fin entender la factura de la luz? ¿O estas oscuras notificaciones que recibimos de la administración que nos ponen muy nerviosos? ¿Y generar una contestación adecuada y formal sin requerir pagar por servicios especializados? ¿Y entender lo que nos dice un prospecto?

Miles de posibilidades. Pero parece que a algunos sólo les interesa los problemas que estas herramientas pueden generar. Sí, es cierto. Pero esto se corrige con formación en su uso, y con la evolución continua y nuevas propuestas que cada semana nacen para mejorar los problemas existentes en estos modelos. Pero para ello hay que seguir trabajando. Hay que seguir investigando. Hay que seguir entrenando, y hay que abrir estas posibilidades a la gente, aunque se regule su acceso. Pero nunca moratorias o prohibiciones.

Y mucho menos desinformación. Nadie ha sugerido jamás parar ni los desarrollos ni la investigación en IA durante 6 meses. Sólo se ha sugerido dejar de entrenar modelos más grandes que GPT-4. Nada más. Y aún así, somos muchos los que nos oponemos, aunque ni unos ni otros van a conseguir parar o dejar de parar este avance.

Sam Altman visita Japón y el primer ministro consigue que OpenAI se comprometa a abrir una sede allí para la implantación en la gestión de la administración nipona. En Italia bloquean su uso (bueno, lo intentan). Dos visiones muy distintas, pero sólo un resultado previsible.

Triste. Anti-todo, anti-vacunas, anti-Bill Gates, terraplanistas y otras tribus ya están diciendo que estos modelos es algo que estaba en la ruta de los que quieren reducir la población mundial y no se qué historias. Otros, que parecen se alimentan de polémicas, desinforman, sí, haciendo lo que dicen que hace GPT-4, con titulares como que se ha pedido que se pare todo en la IA durante 6 meses. Y no sólo medios de comunicación, sino gente además metidos en temas de IA ética (espero que no por intereses personales).

No. La IA ya nos está dando esperanza a la humanidad y al lío en el que nos hemos metido como especie. Con AlphaFold ya vimos claro que la ciencia experimental va a cambiar, va a disponer de un motor capaz de conseguir lo que ni toda la capacidad cognitiva humana puede abordar: resolver enfermedades, problemas como el medioambiente y el futuro como especie.

No caigamos en el populismo. Sigamos trabajando y hagamos didáctica en IA. La gente necesita saber sus fundamentos, sus posibilidades y, claro, sus riesgos, pero con información veraz y clara.

Autor: Jordi Linares

Profesor de la Universitat Politècnica de València, Máster en Inteligencia Artificial y Doctor en Informática. Miembro del Instituto de Investigación VRAIN de la UPV. Investigador y docente en IA e interacción. City Leader de Alcoi AI (red Spain AI)