Esta semana, vi a un viejo amigo y me puso al día sobre lo que había estado haciendo durante el verano. Él y su novia habían visitado a su familia en Arizona. Su sobrina lo arrastró a una proyección de «Lilo and Stitch». Estaba trabajando duro en una nueva empresa. Dijo todo esto en español, un idioma que nunca he aprendido, pero seguí cada palabra.
Lo entendí porque estaba usando los nuevos auriculares Apple que llegarán a las tiendas el viernes. Los AirPods Pro 3 de $250 utilizan inteligencia artificial para hacer traducciones en tiempo real, su característica nueva más significativa. (Los auriculares, que tienen una cancelación de ruido ligeramente mejor, no son tan diferentes de la última iteración). Mientras mi amigo hablaba, el asistente virtual de Apple, Siri, actuó como intérprete, hablando con una voz robótica que inmediatamente convirtió las palabras en español en inglés en mis oídos.
Más tarde, revisé una transcripción de la conversación producida en mi iPhone para confirmar la exactitud de la traducción. Con la excepción de algunos errores en los que Siri mezcló pronombres (refiriéndose a la novia de mi amigo como «él» en lugar de «ella»), fue sólido.
Me impresionó. Este fue el ejemplo más fuerte que había visto de la tecnología de IA funcionando de una manera práctica y sin fisuras que podría ser beneficiosa para muchas personas. Los hijos de inmigrantes que prefieren hablar su lengua materna pueden tener más facilidad para comunicarse. Los viajeros que visitan países extranjeros pueden comprender mejor a los taxistas, al personal del hotel y a los empleados de las aerolíneas.
También me ayudaría en mi vida cotidiana a comprender a un contratista o empleado de control de plagas que no habla inglés y está tratando de explicar lo que encontró debajo de mi casa.
Y, francamente, también me sorprendió. La incursión de Apple en la IA generativa, la tecnología que impulsa los chatbots como ChatGPT de OpenAI y Gemini de Google, ha sido difícil, por decir lo menos. La compañía nunca terminó de lanzar algunas de las funciones de inteligencia artificial que prometió para el iPhone 16 del año pasado porque la tecnología no funcionó bien. Y las herramientas de inteligencia artificial de Apple que están disponibles para editar fotos y resumir artículos han sido decepcionantes en comparación con herramientas similares de Google.
La robusta tecnología de traducción en los AirPods es una señal de que Apple todavía está en la carrera de la IA, a pesar de sus primeros tropiezos. Los traductores digitales de idiomas no son nuevos, pero la ejecución de Apple de la función con los AirPods, un producto que se adapta perfectamente a sus oídos, debería marcar una profunda diferencia en la frecuencia con la que las personas usan la tecnología.
Durante más de una década, los consumidores han buscado a tientas aplicaciones de traducción de idiomas en sus teléfonos que eran incómodas de usar, como Google Translate y Microsoft Translator. Exigían a los usuarios que acercaran el micrófono de su teléfono a una persona que hablaba un idioma extranjero y esperaran a que se mostrara una traducción en una pantalla o se reprodujera a través de los pequeños altavoces del teléfono. Las traducciones a menudo eran inexactas.
Por el contrario, los usuarios de AirPods solo necesitan hacer un gesto para activar el intérprete digital. Aproximadamente un segundo después de que alguien habla, la traducción se reproduce en el idioma preferido del usuario a través de los auriculares.
Esto es lo que necesita saber sobre cómo usar el traductor, cómo funciona la tecnología y por qué es probable que sea mejor que las aplicaciones de traducción anteriores.
Empezar
Configurar los AirPods Pro fue simple. Abrí el estuche al lado de mi iPhone y toqué un botón para emparejar los auriculares. Para usar el software de traducción, tuve que actualizar al último sistema operativo, iOS 26, y activar Apple Intelligence, el software de inteligencia artificial de Apple.
Luego tuve que abrir la nueva aplicación Translate de Apple y descargar los idiomas que quería traducir. Español, francés, alemán, portugués e inglés están disponibles en este momento, y pronto habrá más. Seleccioné el idioma que hablaba la otra persona (en este caso, español) y el idioma en el que quería escucharlo.
Hay algunos atajos para activar el intérprete, pero la forma más sencilla es mantener presionados ambos tallos de los AirPods durante unos segundos, lo que reproducirá un sonido. A partir de ahí, ambas personas pueden comenzar a hablar y aparece una transcripción en la aplicación Traducir mientras una voz lee las palabras traducidas en voz alta.
Los propietarios de los AirPods Pro 2 de 2022 y los AirPods 4 del año pasado con cancelación de ruido también pueden obtener la tecnología de traducción a través de una actualización de software. Un iPhone reciente, como el iPhone 15 Pro o un dispositivo de la serie 16, también debe usar Apple Intelligence para hacer las traducciones.
Para que una conversación fluida se traduzca en ambas direcciones, es mejor si ambas personas usan AirPods. Dado lo populares que ya son los auriculares de Apple, con cientos de millones vendidos en todo el mundo, esto parece bastante probable.
Sin embargo, hay ocasiones en las que esta tecnología será útil incluso con una sola persona que use AirPods. Muchos inmigrantes con los que interactúo, incluida mi niñera y mi suegra, se sienten cómodos hablando solo en su lengua materna, pero pueden entender mis respuestas en inglés, por lo que poder entenderlas también sería de gran ayuda.
Por qué las traducciones están mejorando
La dependencia de los AirPods en grandes modelos de lenguaje, la tecnología que usa estadísticas complejas para adivinar qué palabras van juntas, debería hacer que las traducciones sean más precisas que las tecnologías anteriores, dijo Dimitra Vergyri, directora de tecnología de voz en SRI, el laboratorio de investigación detrás de la versión inicial de Siri antes de que fuera adquirida por Apple.
Algunas palabras tienen diferentes significados según el contexto, y los grandes modelos de lenguaje son capaces de analizar el alcance completo de una conversación para interpretar correctamente lo que dice la gente. Las tecnologías de traducción más antiguas hacían traducciones fragmentarias una oración a la vez, lo que podría resultar en grandes errores porque carecían de contexto, dijo el Dr. Vergyri.
Sin embargo, la tecnología de inteligencia artificial en los AirPods aún podría tener puntos ciegos que podrían conducir a situaciones sociales incómodas, agregó. Las palabras por sí solas no tienen en cuenta otros tipos de contexto, como las emociones y los matices culturales. En Marruecos, por ejemplo, puede ser de mala educación saltar a una conversación sin un saludo adecuado, lo que a menudo implica preguntar por la familia y la salud de una persona.
«Todavía existe la brecha para la comunicación real», dijo el Dr. Vergyri. Agregó, sin embargo, que la tecnología de traducción será cada vez más importante a medida que los trabajadores corporativos se vuelvan más globales y necesiten comunicarse entre culturas.