Privacidad en los asistentes virtuales

Los asistentes virtuales se definen como un software cuyo objetivo es ayudar al usuario a llevar a cabo tareas de diverso tipo.[1]​ Entre los más conocidos podemos citar a Alexa de Amazon o a Siri de Apple. Google o Microsoft también cuentan con asistentes propios. Hay ciertas dudas acerca de la privacidad en la información que se comparte con los terceros que operan estos asistentes. Especialmente, con cómo estos datos pueden llegar a utilizarse.[2]

Puesto que los ayudantes virtuales, al igual que ocurre con los robots u otras inteligencias artificiales, se consideran a menudo cuerpos «nurturing» (que se alimentan), los consumidores pueden obviar los elementos potencialmente controvertidos, otorgando más valor a la comodidad que proporcionan que a su nivel de privacidad. Cuándo las personas establecen relaciones con sus dispositivos, tienden a acercarse más a aquellos que realizan funciones humanas, que es justo lo que hacen los asistentes virtuales.[3]​ La privacy by design (Privacidad por Diseño) y el Botón de Seguridad Virtual (Botón VS) proponen métodos para conseguir que los usuarios cuenten tanto con la comodidad como con la ayuda.

Verificación de una capa frente a la de capa múltiple editar

Se ha propuesto el Botón de Seguridad Virtual, que detectaría el movimiento, como un método para añadir niveles a la verificación en aquellos dispositivos en los que actualmente sólo existe una capa. Hasta el momento, los dispositivos con verificación de un solo nivel, se activan utilizando únicamente la voz. Esta voz podría pertenecer a cualquiera, no necesariamente la del usuario deseado, lo que hace que el método no sea totalmente fiable.[4]​ La verificación de nivel múltiple obliga a superar varias capas de seguridad para permitir al asistente virtual iniciar su función. El botón de Seguridad Virtual proporcionaría una segunda capa de verificación para dispositivos como Alexa, que se iniciaría mediante una combinación de voz y movimiento.[4]

Un ejemplo de circunstancia concreta en la que hay preocupación por la falta de sistemas de verificación obligatorios para desbloquear el acceso al asistente virtual y darle una orden es Alexa, de Amazon, se queda en una casa o área residencial sin vigilancia.[4]​ Actualmente, solo hay una capa de verificación, que es la de la voz. No hay una capa que requiera que el propietario del asistente virtual esté presente. Por lo tanto, con una sola barrera para acceder a toda la información a la que tienen acceso los asistentes virtuales, se plantean dudas con respecto a la seguridad de la información que se maneja. Estas dudas sobre la privacidad han pesado en la decisión del sector tecnológico de añadir capas al proceso de verificación, como un botón de seguridad virtual.[4]

Verificación por voz de Siri editar

La función «Hola Siri» permite al iPhone escuchar a través del sonido ambiental hasta localiza la frase «Hola Siri». Una vez que detecta esta frase, Siri se activa para responder.[5]​ Si un usuario de iPhone desea que no se le escuche constantemente, puede desactivar la función «Hola Siri». Con esta función desactivada, el dispositivo no estará siempre a la espera de escuchar esas dos palabras y, por lo tanto, otra información no se registrará en el proceso.[5]​ Esta verificación por voz hace las funciones de capa simple, ya que la voz es lo único que se utiliza para verificar que se trata del usuario.

Ejemplos de asistentes virtuales editar

Alexa de Amazon editar

Alexa está vinculado al altavoz «Echo» creado por Amazon y es, principalmente, un dispositivo controlado por voz que puede reproducir música y brindar información al usuario, así como realizar otras funciones.[6]​ Como se controla usando la voz, no tiene botones. No cuenta con ninguna medida que determine si la voz escuchada es en realidad la del propietario.[4]​ El botón de seguridad virtual (botón VS) se ha propuesto como un posible método para agregar más seguridad a este asistente virtual.[4]

Los beneficios de añadir el botón VS a Alexa editar

El botón VS se sirve de la tecnología de las redes wifi para detectar el movimiento cinemático de los humanos.[4]​ Un escenario de robo en la casa supone un peligro, ya que la tecnología de bloqueo inteligente se puede activar al haber movimiento.[4]​ El botón VS, que añade otra capa de verificación a Alexa reduciría, por tanto, el peligro de este tipo de escenario.[4]​ La introducción del botón de seguridad virtual agregaría otro nivel de verificación y, en consecuencia, agregará privacidad al dispositivo.[4]

Siri de Apple editar

Siri es el asistente de Apple para el iPhone. Recopila los datos que los usuarios le proporcionan y tiene la capacidad de utilizarlos.[2]​ El ecosistema de la interfaz, que es donde habita la información, es fundamental a la hora de calcular el nivel de privacidad. Otra información sensible que puede verse comprometida es la de la ubicación si uno utiliza la función GPS del teléfono.[7]​ Cualquier dato intercambiado con el asistente, como tu ubicación, se almacena en estos ecosistemas.[7]

«Hola Siri» editar

El «Hola Siri», activa el dispositivo mediante la voz y, a partir de ese momento, recopila el sonido ambiente hasta que localiza de nuevo las palabras «Hola Siri».[5]​ Esta función puede ser útil para las personas con discapacidad visual, ya que les permite acceder a las aplicaciones del teléfono usando únicamente su voz.[8]

El nivel de verificación de Siri editar

Siri de Apple también cuenta únicamente con un nivel de verificación. Si el usuario establece un código de acceso para utilizar alguna función, Siri le pedirá que lo introduzca. Sin embargo, los usuarios dan mucho valor a la comodidad, por lo que muchos dispositivos no tienen códigos de acceso.[4]

Cortana editar

Cortana, el asistente Microsoft , también se activa por voz y, por lo tanto, también utiliza únicamente un nivel para la verificación.[6]​ No utiliza el botón VS como segundo nivel de verificación. La mayoría de los comandos que utiliza son los relacionados con el tiempo que hace, las llamadas a los contactos o las indicaciones de dirección. Todos estos comandos requieren una visión de la vida del usuario porque, en el proceso de responder a estas consultas, el dispositivo examina sus datos, lo que representa un riesgo de privacidad.

El Asistente de Google editar

El Asistente de Google (al principio Google Now) es el asistente virtual más humano.[6]​ Las similitudes se derivan del uso del lenguaje natural y del hecho de que este asistente anticipa en gran medida las tareas que los humanos van a querer que realice. Este conocimiento previo hace que la interacción sea mucho más natural. Algunas de estas interacciones se denominan comandos promocionales.[6]

Asistentes virtuales automatizados para viajes colaborativos editar

Las compañías de viajes colaborativos, como Uber y Lyft, utilizan la inteligencia artificial para escalar sus ámbitos de influencia. Utilizan algoritmos para determinar los precios de «pico» o «prime time» con el fin de crear precios adaptables que cambian con la oferta y la demanda del desplazamiento.[9]​ Además, esta función de inteligencia artificial ayuda a resolver los problemas de privacidad que puedan surgir en el uso que los empleados de Uber y Lyft hacen de los datos confidenciales de los clientes. Sin embargo, las inteligencias también pueden «interactuar» entre sí. Por tanto, estas dudas sobre privacidad en las empresas siguen siendo importantes.[9]

Accesibilidad de los términos y condiciones editar

Los términos y condiciones que el usuario tiene que aceptar es el primer paso para uso proporciona a las empresas como Apple Corporation acceso a los datos. Este contrato describe no solo las funciones de los dispositivos, sino también qué información es privada y cualquier otra información que la compañía considere necesario detallar.[10]​ Incluso para los clientes que leen esta información, la información a menudo se decodifica de una manera vaga y poco clara. El texto aparece en una fuente pequeña y, a menudo, se considera que se abarca un espectro de información demasiado amplio para el usuario medio.[10]

Privacidad por diseño editar

La privacidad por diseño hace que la interfaz sea más segura para el usuario. La privacidad por diseño se produce cuando el mapa de producto inicial ya incorpora los aspectos de privacidad en el momento en que se crea el objeto o programa.[11]​ Incluso las tecnologías que no tienen demasiado que ver con la ubicación tienen la capacidad de rastrear la tuya. Por ejemplo, las redes WiFi son un riesgo si quieres conservar el anonimato de tu ubicación. Muchas organizaciones están trabajando ya en que haya mayor regulación en la privacidad por diseño para que cada vez más compañías la adopten.[11]

Si un producto no tiene privacidad por diseño, el fabricante debería plantearse añadirle otras variantes. El objetivo es que las organizaciones se formen para garantizar que la privacidad mediante el diseño se realice utilizando un estándar, lo que la haría más fiable que la privacidad por elección.[11]​ El estándar tendría que ser lo suficientemente alto como para evitar las lagunas de información que puedan ser susceptibles de vulneración. Se podría aplicar el mismo marco a los asistentes virtuales.

Varias patentes contemplan el requisito de que las tecnologías como la inteligencia artificial incluyan de forma natural varios modos de privacidad. Estas propuestas incluyen la privacidad pro diseño, que se produce cuando se incorporan aspectos de privacidad al mapa inicial de un dispositivo.[12]​ De esta manera, las empresas no necesitan incorporar la privacidad a sus diseños futuros sino que pueden diseñarse ya teniéndola en cuenta. Esto permitiría un método más infalible para garantizar que los algoritmos de privacidad incluyan incluso los casos más extremos.[11]

Inteligencia artificial editar

La inteligencia artificial en su conjunto intenta emular las acciones del ser humano, proporcionándole servicios de lo que debería poder desembarazarse.[13]​ Se forman varias interfaces tecnológicas en el proceso de automatización de estas acciones.

El problema que sigue sin resolverse está relacionado con la idea de que los asistentes virtuales seleccionan contenido para procesar la información y realizar sus funciones.[13]​ De cara a la inteligencia artificial en general y para los asistentes virtuales en particular, es fundamental controlar lo que hacen con esta información y cómo puede verse comprometida.

Polémica editar

Ha habido mucha polémica centrada en las opiniones que pueden adoptar los asistentes. La posibilidad de que los asistentes adopten posiciones controvertidas sobre ciertos problemas ha aumentado a medida que la tecnología ha evolucionado. Nos referimos a puntos de vista de tipo político que pueden tener un impacto en la sociedad, puesto que el uso de los asistentes está ya muy extendido.[14]

El crowdsourcing también es polémico. Aunque proporciona una vía de innovación a través de los usuarios, podría también constituir un medio para que las empresas se atribuyan un mérito de innovación que no les corresponde, al ser del usuario.[15]

Enfoque de Mago de Oz editar

Una de las formas de investigar la interacción entre humanos y robots se conoce como «enfoque de Mago de Oz». Plantea que un líder humano de un estudio complemente al robot mientras que el usuario lleva a cabo una tarea de búsqueda.[16]​ De esta manera, entra en juego el «enfoque de Mago de Oz», sumado a la evaluación humana de la inteligencia artificial y los robots. Cuando la tecnología se acerca a la idiosincrasia humana, el «enfoque de Mago de Oz» establece que dicha tecnología tiene la capacidad de evaluar y aumentar otras tecnologías de inteligencia artificial. Además, el método también sugiere, aunque no sea igual al humano, la tecnología, puede optimizarse.[16]​ Por lo tanto, para considerarse optimizados, siempre que tengan características útiles, los asistentes virtuales no tienen que enfocar toda su innovación en volverse más humanos.

Véase también editar

Bibliografía editar

  1. System and method for distributed virtual assistant platforms (patent), consultado el 9 de noviembre de 2018 .
  2. a b Sadun, Erica; Sande, Steve (2012). Talking to Siri (en inglés). Que Publishing. ISBN 9780789749734. 
  3. Turkle, Sherry. «A Nascent Robotics Culture: New Complicities for Companionship». MIT. 
  4. a b c d e f g h i j k Lei, Xinyu; Tu, Guan-Hua; Liu, Alex X.; Li, Chi-Yu; Xie, Tian (2017). The Insecurity of Home Digital Voice Assistants - Amazon Alexa as a Case Study. 
  5. a b c Zhang, Guoming; Yan, Chen; Ji, Xiaoyu; Zhang, Tianchen; Zhang, Taimin; Xu, Wenyuan (2017). «DolphinAttack». Proceedings of the 2017 ACM SIGSAC Conference on Computer and Communications Security - CCS '17. pp. 103-117. ISBN 9781450349468. doi:10.1145/3133956.3134052. 
  6. a b c d López, Gustavo; Quesada, Luis; Guerrero, Luis A. (2018). «Alexa vs. Siri vs. Cortana vs. Google Assistant: A Comparison of Speech-Based Natural User Interfaces». Advances in Human Factors and Systems Interaction 592. pp. 241-250. ISBN 978-3-319-60365-0. doi:10.1007/978-3-319-60366-7_23. 
  7. a b Andrienko, Gennady; Gkoulalas-Divanis, Aris; Gruteser, Marco; Kopp, Christine; Liebig, Thomas; Rechert, Klaus (2013). «Report from Dagstuhl». ACM Sigmobile Mobile Computing and Communications Review 17 (2): 7. doi:10.1145/2505395.2505398. 
  8. Ye, Hanlu; Malu, Meethu; Oh, Uran; Findlater, Leah (2014). «Current and future mobile and wearable device use by people with visual impairments». Proceedings of the 32nd annual ACM conference on Human factors in computing systems - CHI '14. pp. 3123-3132. ISBN 9781450324731. doi:10.1145/2556288.2557085. 
  9. a b Ballard, Dyllan. «ALGORITHMS, ARTIFICIAL INTELLIGENCE, AND JOINT CONDUCT». Competition Policy Internationa. 
  10. a b Stylianou, Konstantinos K. (2010). «An Evolutionary Study of Cloud Computing Services Privacy Terms». John Marshall Journal of Computer & Information Law 27 (4). 
  11. a b c d Cavoukian, Ann. «Building Privacy into Mobile Location Analytics (MLA) Through Privacy by Design». Privacy by Design. FTC. 
  12. Personal virtual assistant (patent), consultado el 30 de octubre de 2018 .
  13. a b 1940-, McCorduck, Pamela (2004). Machines who think : a personal inquiry into the history and prospects of artificial intelligence (25th anniversary update edición). Natick, Mass.: A.K. Peters. ISBN 978-1568812052. OCLC 52197627. [página requerida]
  14. Barberá, Pablo; Jost, John T.; Nagler, Jonathan; Tucker, Joshua A.; Bonneau, Richard (2015). «Tweeting from Left to Right». Psychological Science 26 (10): 1531-1542. PMID 26297377. doi:10.1177/0956797615594620. 
  15. Budak, Ceren; Goel, Sharad; Rao, Justin M. (2016). «Fair and Balanced? Quantifying Media Bias through Crowdsourced Content Analysis». Public Opinion Quarterly 80: 250-271. doi:10.1093/poq/nfw007. 
  16. a b