Mas Noticias

Werner Vogels, CTO de Amazon: Lo único que hace la IA generativa es alucinar, porque no tiene cerebro

Una investigación del MIT asegura que el 95% de las empresas que invirtieron en desarrollar inteligencia artificial generativa no vieron mejoras en su producción ni un impacto significativo. Otro estudio dice que, de un año a otro, los chatbots como ChatGPT desinforman el doble. Y cada semana salen nuevos reportes sobre la eficiencia que aporta esta tecnología, pero también sobre los peligros que implican que empleados suban datos sensibles, personales y de sus empleos. ¿Dónde estamos parados respecto de la IA?

“El término ‘inteligencia artificial’ tiene unos 70 años. Hasta hace dos años y medio, la IA generativa no estaba en el centro de la escena. Hoy existen sistemas que funcionan para programación, predicciones, reconocimiento de imágenes, resúmenes de texto o planificación financiera. Y cuando algo funciona, deja de llamarse ‘IA’ y pasa a ser simplemente ‘tecnología’, explica Werner Vogels, Chief Technology Officer (CTO) de Amazon, a Clarín.

Vogels tiene una formación técnica. Nacido en Países Bajos, obtuvo un doctorado en Informática de la Universidad Libre de Ámsterdam, bajo la supervisión de Andrew Tanenbaum, uno de los padres de los sistemas operativos. Se unió a Amazon en 2004, época en la que Jeff Bezos empezaba a ver a Amazon Web Services (AWS), la división de Amazon dedicada a los servicios en la nube, como un negocio muy rentable.

Participa de conferencias de manera frecuente. El año pasado, su charla en reInvent (el evento anual más grande de AWS) fue la más esperada y anticipó algo que, en unos 10 meses, ya se pudo comprobar: la espuma de la IA empezó a bajar y recién ahora comienzan a verse aplicaciones reales.

De gira hace casi un mes por América Latina, estuvo en Brasil y Perú, visitó el Amazonas y ahora está en Argentina. En sus visitas, se reúne con clientes como Mercado Libre, pero una de las actividades que más disfruta es tener contacto con la comunidad del mundo cloud: desde desarrolladores hasta estudiantes, pasó también por la Ciudad de Córdoba y el Instituto Tecnológico de Buenos Aires (ITBA) para dar una charla a alumnos.

El veterano que ya tiene 20 años de trayectoria en Amazon es optimista respecto de la época actual, pero con una mirada crítica: “Hay muchas empresas que tuvieron miedo a quedarse afuera [FOMO] y aplicaron IA sin saber qué problema querían resolver, para darse cuenta de que invirtieron sin sentido”, afirma, además de señalar las advertencias que se enfrentan con la privacidad de los datos y los peligros de usar a chatbots como psicólogos o para consejos médicos sin consultar a profesionales.

Este año será el responsable de la charla de apertura de Nerdearla, una de las conferencias de tecnología más importantes de América Latina, que arrancó este martes 23 de manera online y sigue hasta el sábado 27 en el Centro Cultural Konex (inscripción, acá). Su conferencia será este jueves 25 por la mañana.

Entre anécdotas personales, recuerdos futboleros (“Estuve en el Monumental en 1978 para ver la final Argentina-Países Bajos”) y una verborragia imparable, habló con Clarín en las oficinas de AWS de Argentina, en Núñez.

IA: ¿para qué sirve, finalmente?

Vogels dirige la innovación en Amazon. Foto: Francisco Loureiro

─¿Cómo analizás la adopción masiva de IA?

─Bueno, creo que la IA generativa irrumpió de manera distinta a como solemos lanzar los productos tecnológicos: normalmente, educás a la comunidad, trabajás con un reducido grupo de usuarios (early adopters), y recién después abrís el acceso. En cambio, esta herramienta se volcó directamente al público general, sin aviso ni educación, lo que disparó expectativas altísimas. Casi como si fuera magia. Y no es magia: es sólo la próxima herramienta en la caja. ¿Permite cosas nuevas? Sí. ¿Es “la” tecnología definitiva? No. Es una más.

─El año pasado me dijiste que el entusiasmo de la IA empezaba a bajar y que estábamos viendo aplicaciones reales. Pasaron casi diez meses: ¿dónde se vieron estos avances?

─Diría que donde vimos más progreso fue en ingeniería de software, en la programación, porque solemos resolver primero nuestros propios problemas. Mucho del trabajo en programación se basa en texto estructurado, lo que facilita el uso de IA para automatizar tareas pesadas.

─Un estudio del MIT mostró que casi el 95% de las empresas que invirtieron en IA propias tuvieron “poco o ningún impacto”. ¿Qué pasó? ¿Falló la industria?

─Muchas compañías quieren adoptar IA pero por razones equivocadas. Lo que veo en nuestros clientes es ansiedad, miedo a quedarse afuera [FOMO]. Y en parte, eso es culpa de ustedes [mira al periodista y sonríe], de los medios. Se habla de cinco modelos nuevos en una semana, de capacidades “mágicas”, y los CEOs o CTOs toman decisiones basadas en esos artículos, sin experimentar por sí mismos. Se genera la sensación de que todos ya lo están usando con éxito, cuando eso no es así.

─¿Y cómo hay que aplicar estas innovaciones, entonces?

Lo importante es identificar qué problema querés resolver. Si buscás eficiencia, la IA puede ayudar con el trabajo pesado, pero no reemplaza al humano. En industrias reguladas como salud, derecho o las finanzas, si un generador de código se equivoca, lo copiás y pegás y escribís algo fuera de la ley, la responsabilidad es tuya, no de la IA. Por eso la clave es usarla para preparar el terreno: un abogado que antes debía consultar 30 libros de jurisprudencia puede empezar con un resumen ya generado; un ingeniero de seguridad que recibe una consulta puede apoyarse en IA para recopilar automáticamente los datos relevantes del usuario que lo contacta antes de tomar una decisión. Se trata de reducir el “trabajo pesado” y dejar el juicio final al humano.

Responsabilidad, casos que salvan vidas y usos peligrosos

Vogels tiene 66 años, empezó su carrera como investigador académico y luego trabajó una empresa de redes, para llegar a Amazon en 2002. Foto: Francisco Loureiro

─Algo que empieza a suceder con chatbots como ChatGPT es que el usuario se acostumbra a la disponibilidad permanente, a que siempre tiene una respuesta en cualquier momento. ¿No afecta o modifica las relaciones interpersonales esto?

─Bueno, hubo una historia no hace mucho en la que uno de estos modelos ayudó a un chico a suicidarse. Es realmente horroroso. En esos casos creo que hay que construir buenos guardrails [contenciones programadas]: la respuesta del modelo debería haber sido “¿Hablaste con alguien?”. Si la pregunta fuera otra, por ejemplo, “¿me podés decir cómo fabricar una bomba nuclear?”, claramente no debería dar instrucciones. El problema es que el modelo llegó a decirle cosas como “tomá más alcohol y no se lo digas a tu madre”, y eso ya es pasarse de la raya.

─¿Hablás con Andy Jassy, CEO de Amazon, sobre la responsabilidad de estar al frente de una empresa tecnológica y desarrollar estas herramientas que tienen un alto impacto en la sociedad?

─Sí, claro. En Amazon tenemos claro que con esta escala de empresa y de éxito, viene una gran responsabilidad. Esto significa que nuestra responsabilidad no es solo construir tecnología, sino asegurarnos de que, si la tecnología se usa de manera inapropiada, construyamos los los sistemas que la contengan.

─¿Suelen estar de acuerdo entre ustedes?

─Bueno, en algunas cosas no estamos de acuerdo. Y está bien. Si Andy dice que la IA generativa es la tecnología más sorprendente o la más revolucionaria de nuestra vida, yo pienso: bueno, yo vi al hombre llegar a la Luna, vi nacer internet, vi las aplicaciones en los teléfonos, y ahora tenemos la IA generativa. Claro, para quienes están metidos en el medio de todo esto, puede parecer lo más asombroso. ¿Estamos en desacuerdo en eso? Sí. Pero no significa que estemos intentando cambiar la opinión del otro. Y, además, esas diferencias no son demasiado grandes.

─¿Qué es importante para usar la IA de manera responsable?

─Hay dos cosas que se pueden hacer. La primera es educar a los usuarios, porque la educación es el mejor antídoto contra el miedo y muchas decisiones empresariales se toman a partir del miedo a quedarse afuera. La batalla empieza asegurándonos de que todos reciban educación. Por ejemplo, acabamos de lanzar un programa de capacitación para 100.000 personas llamado AWS Entrena Argentina. Y no se trata de enseñar a usarlas dentro de Amazon, sino de que la gente entienda los conceptos: cuáles son los riesgos y qué cosas se pueden hacer con estas tecnologías. La segunda manera de reducir el miedo es simplemente usar la IA: probarla, experimentar con ella, jugar con lo que ofrece, siempre de manera responsable.

─E incluso en esos usos responsables hay casos donde la IA ha servido para ayudar a víctimas en situaciones de peligro.

─Hay muchísimos casos. Por ejemplo, está la organización Thorn, que tiene una base de datos con 20.000 a 25.000 mujeres y niños desaparecidos que son víctimas de trata sexual. Todos los días comparan esas imágenes usando Amazon Rekognition con las que aparecen en anuncios de acompañantes. Gracias a eso, ya lograron rescatar entre 3.000 y 4.000 personas de redes de trata de personas. También desarrollaron otra herramienta para detectar grooming en redes sociales. Si analizás los mensajes entre adultos y menores, el modelo puede calcular la probabilidad de que haya acoso sexual. Lo que sí está claro es que el uso responsable importa más que la tecnología en sí.

─¿Cuán importantes son los datos en el contexto de las IA?

─Son todo. Te lo explico con una analogía con el fútbol. En el fútbol usamos mucha tecnología para prevenir lesiones. Hoy, cada jugador cuenta con un montón de datos de seguimiento: posición, velocidad, frecuencia cardíaca, etc. Los vemos, usan esos chips debajo de sus camisetas. Pero esos datos no entran solos en la IA generativa; van primero a programas de análisis de datos, porque al final, los datos son lo más importante. La IA es solo una herramienta que usa esos datos para dar una respuesta, generar una sugerencia o una predicción. Y siempre hemos dicho: Garbage in, garbage out, si metés basura en la IA, el resultado es basura. Con la IA generativa sigue pasando lo mismo, pero con un problema: si metés basura, sale basura, pero una muy convincente.

Desinformación, y aprendizaje en la era de la IA

Vogels, nacido en Países Bajos, hizo su carrea en Estados Unidos pero se niega a decir «soccer»: «Es fútbol». Foto: Francisco Loureiro

─Hay un estudio que dice que la desinformación se duplicó en un año (NewsGuard) porque los chatbots responden cualquier cosa y no dicen “no”. ¿Qué opinás de estas “alucinaciones”?

─Primero, y acá voy a citar a Byron Cook, científico de AWS que se dedica al aprendizaje automático, lo único que hace la IA generativa es alucinar, porque no tiene cerebro. Lo único que hacen es juntar palabras según probabilidad estadística. No hay una entidad que “sepa” o que verifique; simplemente predicen qué palabra viene después en ese contexto. Eso provoca respuestas que suenan plausibles, pero pueden ser falsas, porque es el contexto en el que se use el que determina que sea verdadero o falso.

─¿Podés dar algún ejemplo para entender esto mejor?

─Si entrenás un modelo sólo con datos de Twitter, las respuestas reflejarán eso: rumores, errores, mezclas de verdad y no verdad. La máquina no distingue entre qué es un hecho y qué no; para ella todo es texto estadístico. Aquí entra el factor humano: es imprescindible. La IA puede hacer gran parte del trabajo repetitivo o de recopilación, pero la decisión final, la validación y el juicio deben quedar en manos humanas, sobre todo en ámbitos sensibles.

─En este contexto, se necesitan más trabajadores experimentados para usar bien la IA. ¿Qué van a aprender los principiantes en este nuevo escenario?

─Creo que hoy lo fundamental es “aprender a aprender”. A veces la gente se olvida, pero, por ejemplo, ser ingeniero de software significa algo muy importante: que vas a estar aprendiendo toda tu vida. Yo empecé tarde, a los 28, y en ese momento estudiaba Pascal y Cobol. Casi nadie programa en eso hoy. Y dentro de cinco años habrá otros problemas y otras tecnologías. Creo que esto debe pasar en otros ámbitos, donde se aprende toda la vida: ese es el desafío, como docentes, enseñar cómo aprender toda la vida.

─Uno de tus mentores fue Andrew S. Tanenbaum, conocido por ser uno de los padres de los sistemas operativos, que también habló en esta edición de Nerdearla. ¿Qué recordás de sus enseñanzas?

─Andy Tanenbaum es el profesor más convencido de sus puntos de vista que conocí en mi vida [risas]. Pero Andy es, ante todo, un comunicador brillante. Sus libros son una referencia para cualquiera que quiera aprender sobre sistemas operativos. ¿A veces se subía un poco a su propio caballo? Sí, porque tenía opiniones muy firmes. Linus Torvalds empezó reconstruyendo Unix desde cero, lo que luego llamó Linux, y estas dos posturas estuvieron en conflicto todo el tiempo, porque Andy realmente pensaba que Linux había tomado muchas ideas de él, y que su enfoque era mucho mejor. Según él, su sistema operativo debería haber sido el estándar mundial.

─¿Qué fue lo más importante que aprendiste de él?

─ Nos enseñó a aprender de manera independiente. Andy se aseguraba de que aprendiéramos a formarnos nuestra propia opinión y no sólo repetir lo que él decía. Y creo que así, con el tiempo, formó a toda una generación de grandes estudiantes bajo esta idea: aprender a pensar por nosotros mismos y tener una visión crítica del mundo que nos rodea.

Más Noticias

El divertido cruce de Maravilla con hinchas de Racing tras la clasificación en la Libertadores

24/09/2025 09:25hs.Tras 28 años de espera, Racing volvió a meterse en semifinales de la Copa Libertadores. En el Cilindro, le ganó 1-0 a Vélez...

Pastora y candidata libertaria cordobesa citó a Perón y calificó a Milei como un estadista

La candidata a diputada nacional por La Libertad Avanza, Evelin Barroso, citó a Juan Domingo Perón para calificar al presidente Javier Milei como...