top of page
  • Writer's pictureJaime González Gasque

Meta tiene muchas ideas de asistentes de voz para privacidad biométrica


¿Puede Meta Platforms involucrarse en el reconocimiento de voz de manera ética, es decir, mientras protege la privacidad de sus suscriptores? Cuando el CEO de Meta, Mark Zuckerberg, se puso un avatar de grado 2001 la semana pasada para hacer tres anuncios centrados en el habla relacionados con el metaverso, se notó la ausencia de cualquier mención a la privacidad biométrica.


Aunque se puede argumentar que Zuckerberg creó Meta, matriz de Facebook, en parte para disipar el calor que sentía la plataforma de redes sociales por sus prácticas de datos, Zuckerberg no tiene nada que decir sobre la privacidad en el anuncio de Meta. Específicamente, la compañía dice que ha creado una nueva herramienta, BuilderBot, que permitirá a alguien en Horizon, el metaverso de Meta, importar y crear objetos y características digitales usando solo su voz. Es posible que el asistente de voz no incluya una función de autenticación biométrica, pero acumularía rápidamente una base de datos de datos de voz, si tiene éxito.


Y un modelo de IA para chatear con asistentes virtuales, algo llamado Project CAIRaoke, tiene como objetivo permitir conversaciones naturales entre asistentes y personas. Sus ingenieros también están trabajando en un software para traducir todos los idiomas escritos y, por separado, un traductor de voz universal para la traducción instantánea de palabras habladas (este último anuncio es demasiado especulativo incluso para que Meta publique una página de marketing al respecto). Es interesante notar que Zuckerberg muestra esos diseños en la misma página con un cumplido sobre cómo Meta ha desarrollado materiales para educar a las personas sobre los "muchos modelos de IA que componen un sistema de IA". No los sistemas de IA de Meta; solo categorías de código. Sin embargo, nada se dice sobre la privacidad biométrica en Meta.


Un artículo de Recode que cubre el anuncio de Zuckerberg señala que las infracciones y fallas en la privacidad de Meta (incluido el escándalo de Cambridge Analytica) se han visto como especialmente atroces porque todo el modelo comercial de Facebook es la recopilación de datos personales. Poner a las personas en gafas de realidad virtual abre un nuevo capítulo en la recopilación, el análisis y las ventas de datos biométricos.


Luego, los suscriptores crean su propio mundo imaginario, ciertamente el material de los sueños de los psiquiatras. Y, en última instancia, las personas interactúan en ese mundo con otras personas, obstáculos y situaciones imaginarias. Sin embargo, ¿no hay garantías de que se esté haciendo ningún esfuerzo para salvaguardar el mayor caché de información biométrica voluntaria desde el mismo Facebook? Cuando se trata de gorilas digitales de 600 libras en una habitación, borrarlos podría ser una mejor estrategia que ignorarlos.


Por Jim Nash

1 view
bottom of page