;

Apple IA en iOS 17: la ambición silenciosa

El momento claro en el que una tecnología empuja al resto, es cuando llega a cualquier persona fuera de nuestra burbuja tecnológica. La aparición de OpenAI con ChatGPT revolucionó lo que un bot conversacional podía hacer usando un modelo entrenado para ello, y abrió las puertas al uso en otros ámbitos: imágenes, vídeos, sonidos...

Todo esto ha pasado hace relativamente poco. De hecho, ha pasado tan rápido, que a muchas de las grandes les ha pillado a contrapie. Microsoft se puso las pilas y hace poco anunciaba la integración de la tecnología GPT en Bing bajo su explorador Edge. De nuevo, todo pasa tan rápido que inmediatamente miramos a la competencia directa de aquello, Google, al que todo el mundo daba por destronado.

La realidad es que no fue así. La compañía de Mountain View presentó en su reciente conferencia de desarrolladores la nueva tecnología de IA llamada Bard y la integración en el buscador y en sus herramientas. El cambio es tan potente que podría cambiar el hecho de cómo ya no vamos a buscar de la misma forma en Internet. Ya nadie habla de Google en una segunda posición. Y ahora todos miran a Apple.

Las señales de Apple en IA

De hecho, a la compañía la llevan mirando prácticamente desde que salió ChatGPT. Es una tecnología espectacular, de hecho, hace unos días tuvimos la oportunidad en Applesfera de presentaros la primera app para iPhone de ChatGPT, oficial de OpenAI. Con todo esto, ¿donde queda Siri?

Siri debe mejorar, pero las mejoras por IA deben ir aún más allá en utilidades concretas y prácticas, como las novedades de iOS 17 que ya hemos conocido esta semana

Es una pregunta trampa. A menudo la asociamos al hecho de que, de la misma forma que ChatGPT parece "entendernos", Siri tiene que hacerlo de la misma forma. Estoy de acuerdo en parte: Siri tiene que mejorar, y la IA puede ayudar a mejorar el contexto de las conversaciones, pero donde esta tecnología puede cambiar nuestro día a día, es en cómo usamos el iPhone.

Siendo justos, Apple lleva años utilizando motores de Machine Learning, sólo que procesa en local (en el propio dispositivo) usando la potencia de Apple Silicon. Es una aproximación distinta: los datos de entrada y la salida están en nuestro bolsillo, contra el proceso remoto - eso sí, mucho más potente - que hace OpenAI o el resto de empresas similares.

Los pasos hacia algo más grande

iOS 17 potenciará el uso de la IA para mejorar sus capacidades de accesibilidad

Ahora bien, esto no indica que Apple esté parada. Esta semana, en un movimiento algo inusual en estas fechas aunque encajado dentro del día internacional de la accesibilidad: iOS 17 contiene algunos cambios importantes para las personas con alguna discapacidad visual, motriz o auditiva. Entre ellos, características tan importantes como poder entrenar el iPhone para que hable con nuestra propia voz.

Esto se presentó por nota de prensa, cuando cualquier otra empresa lo hubiera puesto en pleno escaparate como una demostración de tecnología. Son pequeños pasos del ecosistema hacia algo que en algún momento será más grande.

Tanto esta funcionalidad, como el reconocimiento de caracteres, la mejora por Machine Learning cuando tomamos una foto, la interpretación del sensor LiDAR del mundo real y "entender" qué está viendo en cada momento son también usos de la IA basados en la utilidad, no parte de una demostración. Esta orientación hacia el resultado es marca de la casa, pero esto no significa que en Cupertino no quieran ir más allá: y seguramente lo hagan en la WWDC23 - que está a la vuelta de la esquina.

Se han mantenido cautos, mostrando no todo lo que pueden hacer, sino donde pueden emplear su tecnología. Qué es útil para el usuario y ofreciéndoselo, directamente, convertido en una funcionalidad. Esta discreción, este silencio en un mar de ruido de infinitas posibilidades es también una estrategia. Problemente en las próximas semanas, lo entendamos todo aterrizado con cosas que pueden hacer diferente un iOS 17 en un año complicado por el resto de novedades hardware importantes de la compañía, como las Reality Pro.

Esta semana junto a Miguel López comento este tema, así como el análisis que hemos podido hacer al libro de Steve Jobs que sólo tienen empleados de Apple, el registro de xrOS, el nombre del sistema operativo de las Reality Pro y el resto de noticias de Apple de la semana.

¡Gracias por escuchar nuestro podcast! Podéis acompañarnos en la grabación en directo cada semana, todos los martes a las 18:30 (hora española peninsular) en el canal de Xataka en Twitch. O seguir Las Charlas de Applesfera desde tu app favorita de podcasts, como Apple Podcasts, iVoox o Spotify.

En Applesfera | "Hablaremos durante años de ello": asistí a las anteriores y estoy convencido que esta WWDC23 será mucho más que iOS 17 o las Apple Reality Pro

Ver todos los comentarios en https://www.applesfera.com

VER 9 Comentarios

Portada de Applesfera