Si abre sus dispositivos con una huella digital o un escaneo facial, probablemente esté de acuerdo con que las empresas de tecnología tengan algunos de sus datos biológicos. Ahora, el auge de los wearables neurotecnológicos también está poniendo las ondas cerebrales sobre la mesa.
El miércoles, el gobernador de Colorado firmó un factura ampliar el estado ley de privacidad existente para incluir datos neuronales o actividad cerebral. El proyecto de ley añadió las ondas cerebrales bajo el paraguas de datos biológicos, que definió como «datos generados por el procesamiento, medición o análisis tecnológico de las propiedades, composiciones o actividades biológicas, genéticas, bioquímicas, fisiológicas o neuronales de un individuo o de las actividades de un individuo». cuerpo o funciones corporales.»
También: Humane Ai Pin: qué salió mal y cómo solucionarlo (antes de que sea demasiado tarde)
Esto incluye grabaciones de sus huellas dactilares y su rostro, que las empresas de tecnología tienen cada vez más, así como su ADN. Antes del proyecto de ley, en Colorado sólo se protegían las huellas dactilares y las imágenes faciales.
Neurotech utiliza electroencefalografía (EEG), un método para medir la actividad cerebral mediante electrodos. Interfaces cerebro-computadora (BCI) invasivas, como Neuralink o Sincrónico — se implantan en el cuerpo y, por lo tanto, se consideran dispositivos médicos, lo que significa que están regulados bajo protecciones de datos más altas. Pero la neurotecnología no invasiva, como los dispositivos portátiles que utilizan EEG, se consideran dispositivos de consumo, y aún no están regulados.
También: Olvídese de Neuralink: esta empresa de implantes cerebrales menos invasivos está reclutando participantes para el ensayo
Los productos de consumo que incorporan EEG existen desde hace algún tiempo: empresas como Emocional y neurocielo han estado explorando la tecnología para el fitness, la salud digital e incluso perfume durante casi una década. Meta, Apple y Quebrar están trabajando en sus propios dispositivos.
Actualmente hay disponibles muchos wearables neurotecnológicos no regulados, desde auriculares prometiendo un mejor rendimiento deportivo a las cintas para la cabeza que te ayudan meditar. Esta tecnología rastrea, analiza y, al menos en algunos casos, registra su actividad cerebral.
La legislación de Colorado se aprobó en respuesta a las crecientes preocupaciones sobre la privacidad en las BCI de los consumidores. «Los datos sobre la actividad del cerebro humano y del sistema nervioso en general, o «datos neuronales», son extremadamente sensibles y pueden revelar información íntima sobre los individuos, incluida información sobre la salud, los estados mentales, las emociones y el funcionamiento cognitivo», afirma el proyecto de ley.
También: Alphabeats dice que puede entrenar el cerebro de los atletas para optimizar su rendimiento: así es como
En las manos equivocadas, esos datos podrían ser utilizados contra individuos por empresas o terceros. A informe de La Fundación Neuroderechos encontró que 29 de 30 empresas encuestadas «parecen tener acceso a los datos neuronales del consumidor y no ofrecen limitaciones significativas a este acceso».
El informe también menciona varios estudios recientes que contribuyen al «creciente consenso científico de que los datos neuronales recopilados por dispositivos no invasivos pueden decodificar el pensamiento humano», una debilidad de la privacidad si no se protege.
También: La IA portátil de Limitless de $ 99 promete recordar sus reuniones y, bueno, todo lo demás
Como inteligencia artificial (que necesita muchos datos para entrenar) se ha vuelto popular en los últimos dos años, al igual que las preocupaciones generales sobre la recopilación y venta de datos de los usuarios. La IA en la industria tecnológica todavía está relativamente desregulada y Estados Unidos se ha quedado atrás Europa en términos de legislación de privacidad de datos.
La medida de Colorado es un paso pequeño pero notable en la dirección correcta. California y Minnesota están logrando avances similares, pero aún no existe ninguna política sobre datos neuronales a nivel federal.