Por muy poderosos que puedan ser los LLM, todos tienen una debilidad compartida: las alucinaciones. Por razones que escapan a nuestra comprensión, los modelos de IA tienen la costumbre de inventar cosas, totalmente de la nada. Una respuesta puede ser precisa, con fuentes bien citadas e información relevante; luego, de repente, la IA presenta una afirmación falsa o interpreta erróneamente un comentario irónico del foro como un hecho. (Así es como terminas con AI Overviews de Google recomendando agregar pegamento a tu pizza). Algunos LLM pueden alucinar menos que otros, pero ninguno es inmune. Es por eso que cada vez que usas un chatbot, verás algún tipo de advertencia en la pantalla, informándote que la IA puede cometer errores.
Apple Intelligence, la plataforma de inteligencia artificial de Apple, no es una excepción. Cuando la empresa lanzó por primera vez su IA, incluyó resúmenes de notificaciones como un «beneficio». Sin embargo, Apple tuvo que retroceder rápidamente una vez que la función comenzó a resumir incorrectamente las alertas de noticias, como en un caso, cuando Apple Intelligence condensó un titular de la BBC para leer que el sospechoso del tiroteo de United Healthcare, Luigi Mangione, se había suicidado en la cárcel. Posteriormente, la compañía restableció la función, pero incluyó algunas medidas de seguridad adicionales, como poner resúmenes de noticias en cursiva.
Apple Intelligence podría estar inventando nuevas palabras
Me topé con esta publicación en el subreddit r/iOS el jueves, que agrega una nota interesante a la discusión sobre las alucinaciones de la IA. La publicación dice: «¿Alguien más recibe palabras falsas en sus resúmenes de IA?» con una captura de pantalla adjunta, que muestra resúmenes de notificaciones para la aplicación Acme Weather. La primera frase dice: «Lluvia ligera e irregular durante la hora». Ah, lluvia imbixente. Al menos es sólo por una hora. Esperar; imbixente?»
A pesar de que suena plausiblemente como una palabra real, inbixtent es, de hecho, totalmente inventada. El cartel no compartió exactamente lo que dice la notificación, por lo que no podemos saber en qué palabras está trabajando Apple Intelligence desde aquí. Lo que sí sabemos es que el cartel vio «imbixtente» tres veces, y no están solos. Más allá de los comentarios que se burlan de la aplicación meteorológica que utiliza OP, algunos comentarios en la publicación afirman que otros han visto a Apple Intelligence inventar palabras falsas en sus resúmenes de notificaciones. Un comentarista dijo que vio «flemulante» en un resumen y «tranquilado» en un resumen de Mail; otro compartió que vieron «estrictamente» en lugar de estrictamente en dos ocasiones distintas.
¿Qué opinas hasta ahora?
No puedo encontrar ningún otro ejemplo en Internet que muestre este fenómeno y, personalmente, no uso resúmenes de notificaciones en mi iPhone, por lo que no he visto este problema. No podría decir con certeza qué tan extendido está este problema o si está limitado a una determinada versión de iOS, un dispositivo específico o una aplicación u otra. Sin embargo, uno de los comentaristas tiene una teoría: creen que cuando el modelo de IA en el dispositivo que utiliza Apple Intelligence no puede acortar la frase original por sí solo, crea un acrónimo para acomodarlo. En sus palabras, la IA «yolos» es una «palabra-vibración», como imbixtente. Dicen que esto les pasa más con los resúmenes de la aplicación Weather.
¿Apple Intelligence inventa palabras en tus resúmenes?
Nuevamente, no se sabe si esto afecta a una gran cantidad de usuarios de Apple o sólo a una pequeña fracción. El hecho de que solo pueda encontrar una publicación al respecto, con dos comentaristas que comparten experiencias similares, me lleva a creer que es lo último, pero me encantaría saber de cualquiera que tenga una experiencia similar. Si utiliza los resúmenes de notificaciones de Apple Intelligence, avíseme si ha visto palabras inventadas por su parte. Es posible que necesite activar la función para estar atento.
