El documento de Apple filtrado que nos explica el carácter de Siri: neutral y siguiendo las leyes de la robótica de Asimov

El documento de Apple filtrado que nos explica el carácter de Siri: neutral y siguiendo las leyes de la robótica de Asimov
14 comentarios Facebook Twitter Flipboard E-mail

Siri fue el primer gran asistente virtual que llegó a las masas. Introducido con el iPhone 4s, a lo largo de los años ha ido aprendiendo más y más funciones, siendo la inteligencia artificial su principal característica. Pero, ¿cómo define Apple con qué carácter dotar a esta inteligencia artificial de Siri? Un documento filtrado la semana pasada desvela algunas de las claves, además de la posible existencia de un nuevo dispositivo con Siri.

Según un documento que ha obtenido The Guardian (tras la polémica de las escuchas de Siri), Apple ha diseñado a Siri para ser lo más neutral posible. El documento muestra cómo Siri se las ingenia para salir del apuro siempre que se le pregunta por temas controvertidos. Con tal de no entrar en polémicas, a veces incluso ofrece respuestas poco satisfactorias o generalistas para no entrar en el tema demasiado.

Siri

The Guardian muestra como ejemplo el tema del feminismo. Si se le pregunta al asistente de Apple si es feminista contestará con alguna respuesta que evita contestar de forma directa o que no afirma que efectivamente lo es (o que no lo es). Por ejemplo "Creo firmemente en la igualdad y el respeto en el trato a las personas". Por el contrario, Alexa o Google Assistant sí que indican claramente que lo son. En otros temas como la homosexualidad o el racismo directamente no opina.

Cac7b1ff 92bd 4150 A12b 76ae9d368c16
Un vistazo a…
Análisis del HomePod Siri y el mejor sonido ya están en casa

Una guía que se inspira en Asimmov

Como curiosidad, el documento filtrado también explica cómo debe funcionar la ética de Siri. Para ello hace uso de las leyes de la robótica del autor de ciencia ficción Isaac Asimov. Además de las tres leyes de la robótica, también cuenta con unas cuentas específicamente creadas para la guía de comportamiento de Siri. Por ejemplo:

"Un ser artificial no debe representarse a sí mismo como humano, ni a través de la omisión permitir al usuario creer que es uno."

"Un ser artificial no debe violar las normas éticas y morales humanas que comúnmente se mantienen en su región de operación".

"Un ser artificial no debe imponer sus propios principios, valores u opiniones a un ser humano".

Las respuestas y el carácter general de Siri son especialmente importantes si tenemos en cuenta que es un asistente utilizado a diario por millones de personas. Una respuesta con postura ideológica o balanceada en un lado más que en el otro no solamente puede crear controversias, sino polémicas para la propia compañía.

Vía | The Guardian

Comentarios cerrados
Inicio