«El actual sistema de daños no es idóneo para solucionar los problemas que plantea la Internet de las Cosas»

«
Quién paga por los daños de las cosas conectadas

Entrevista publicada en el Diario La Ley

La internet de los objetos conectados es uno de los desarrollos tecnológicos que más rápidamente va a implantarse en los próximos años. Sin embargo, la responsabilidad que puede generarse por su uso plantea numerosos interrogantes. Hablamos sobre todo ello con Paloma Llaneza, uno de los mayores expertos nacionales en esta materia y autora de «Seguridad y responsabilidad en la Internet de las cosas (IoT)», recientemente publicado por Wolters Kluwer.

Carlos B Fernández. Internet de las Cosas (IoT) es uno de los desarrollos que más alcance social está destinado a tener en los próximos años. Si la presencia de aspiradoras domésticas capaces de desplazarse por sí mismas a lo largo de una casa para aspirar el polvo de todos sus rincones todavía sorprende a quienes no las conocen, todo apunta a que esto es solo la primera pequeña ola del tsunami tecnológico que se prepara.

Si se cumplen los pronósticos, pronto asistiremos a la llegada masiva de miles de millones de objetos de uso doméstico, desde aspiradoras a coches autónomos, capaces muchos de ellos de aprender por sí mismos a mejorar su comportamiento, conectados a grandes plataformas de servicio y entre sí, generando terabytes diarios de información sobre su entorno y sus usuarios y, probablemente asumiendo en muchos casos decisiones que hasta ahora estaban atribuidas solo a los seres humanos.

Los cambios sociales, económicos y por tanto también jurídicos que van a provocar estos objetos es algo todavía difícil de anticipar con precisión. Pero los interrogantes que los juristas se hacen sobre todos ellos ya están ahí.

Como hace poco señalaba Antonio Garrigues Walker, todo avance tecnológico implica unas consecuencias jurídicas. Y las dos más evidentes que se adivinan en un mundo repleto de objetos conectados son, por un lado, la definitiva consolidación del dato como bien dotado de un creciente valor (ya sea en su aspecto individual, respecto de un individuo concreto, como agregado, respecto de una colectividad) y, por otro, el régimen de responsabilidad derivado de su uso. Un uso que, además puede verse afectado desde el punto de vista de la cibeseguridad, por múltiples amenazas.

Ambos conceptos carecen por ahora de una regulación adecuada, pero es el régimen de responsabilidad el que más inquietud parece despertar, dada la vinculación directa de las personas a las consecuencias negativas que puedan producirse como consecuencia del uso de esos objetos.

Paloma Llaneza González, abogada y una de las mayores expertas en los aspectos legales de la tecnología de nuestro país, ha analizado en profundidad este aspecto de la IoT en su libro «Seguridad y responsabilidad en la Internet de las cosas (IoT)« recientemente publicado por Wolters Kluwer. DIARIO LA LEY ha hablado con ella para conocer su opinión sobre muchos de los principales jurídicos aspectos que se plantean sobre las mismas, tanto ahora como en el futuro.

DIARIO LA LEY: PARA EMPEZAR SITUANDO EL TEMA ¿DE QUÉ HABLAMOS CUANDO HABLAMOS DE INTERNET DE LAS COSAS?

PALOMA LLANEZA: La Internet de las Cosas son objetos que sienten, que actúan y que, además, están conectadas a internet. Es decir, se trata de un concepto muy amplio.

Los objetos capaces de sentir y actuar ya existen y están en nuestro entorno, no solo doméstico, sino también en otros como el industrial o el del transporte.

Por ejemplo la aspiradora Rumba que cualquiera puede tener en su casa. Se trata de un modelo de robot clásico que tiene sensores, es decir, que siente su entorno, lo que le permite mapear una casa y así saber dónde está una escalera, dónde está una esquina, dónde hay una mancha más profunda de suciedad para ir, y que dispone también de actuadores para desplazarse, detenerse, girar más o menos rápido, etc… Es decir, es un tipo de objeto que toma decisiones con base en una programación que incluye una inteligencia que lleva implantada en su software.

Otro ejemplo son los marcapasos y otros muchos dispositivos médicos implantables, que cuentan con sensores para medir factores como el ritmo cardiaco de la persona que los lleva y que incorporan un software interno, que toma decisiones dependiendo de cómo vaya ese ritmo pudiendo, en caso de necesidad aplicar una descarga eléctrica al corazón en caso de que detecte una fibrilación.

El gran cambio se produce cuando decidimos conectar estos objetos a internet. En el momento en que las cosas que ya sentían y actuaban se conectan a internet, se introducen dos elementos: uno, que su seguridad se debilita porque se puede acceder a ellos de manera remota, especialmente en ocasiones en que se hacen más vulnerables como en los de las actualizaciones de su software y, otro que, además, que esos objetos comienzan a recoger datos. Y esa capacidad de recogida de datos, unos de manera automática y otros porque el proveedor quiere, introduce un tercer elemento que es qué hacer con ellos. Y de ahí evolucionamos de unos objetos que sienten y actúan, a unos objetos autónomos y conectados, y de ahí al siguiente estadio que son los objetos que sienten, que actúan, que están conectadas y que además son inteligentes. Lo que se llama los sistemas ciber-físicos, conectados e inteligentes. Y ahí es donde, como dice el Informe del Parlamento Europeo de 2017, entramos en el concepto de robótica.

DLL: ¿ES LO MISMO, POR TANTO, INTERNET DE LAS COSAS Y ROBOTS O SON SOLO COSAS RELACIONADAS?

PLl: Yo entiendo que los robots son una variante de las cosas conectadas, a no ser que el robot no esté conectado a internet.

Por tanto, creo que el elemento que define esta taxonomía es la conectividad. Un robot siente, actúa sobre su entorno y, además, está conectado para estar permanentemente actualizado, para poder saber lo que otros robots de la misma categoría, o de la misma empresa, hacen y para poder sacar parámetros de conducta y reprogramarse.

Tanto en la robótica industrial como en la robótica de acompañamiento o de cuidado de mayores se trabaja así.

Pero pensemos que la robótica es mucho más que los robots humanoides, también incluye objetos como los coches autoconducidos y conectados. Y destaco lo de conectados por que coches automáticos hay muchos en el mercado (yo tengo uno que se abre automáticamente cuando me acerco a él, o que puede aparcar por sí mismo), lo que hace diferente a esos coches es cuando lo conectamos a la Red.

DLL ¿CUÁL ES LA RELACIÓN ENTRE LA INTERNET DE LAS COSAS Y LA INTELIGENCIA ARTIFICIAL?

PLl: Pensemos en los coches autónomos. Estos vehículos están diseñados no sólo para que conduzcan ellos solos sino también para comunicarse con otros coches autoconducidos en la misma carretera, con entidades terceras como pueden ser las señales de tráfico, don la administración, etc., de tal manera que en realidad se conviertan en unidades de un cerebro central. Y eso es lo que proporciona la inteligencia artificial a la Internet de las Cosas: un cerebro central que gestiona objetos que se encuentran conectados.

La IA permite aprender del entorno pero, además, permite predecir el entorno e incluso, dependiendo del tipo de inteligencia artificial o de la metodología de inteligencia artificial que se aplique, puede permitir a las máquinas improvisar a partir de su propia capacidad de aprendizaje. Por ejemplo, esto es lo que pudo haber sucedido en el reciente caso del coche de Uber que atropelló a un peatón que se cruzó en su camino. Si este coche hubiera estado preprogramado para ignorar los bultos o hubiera tenido capacidad de reprogramarse a sí mismo, podría haber recalculado y se habría dado cuenta que el bulto que estaba cruzando era una persona y habría parado. Esa es la inteligencia que proporciona el que la máquina aprenda por sí misma.

Pero además sucede que ese aprendizaje se sube a la nube automáticamente, a una plataforma donde se gestionan esos datos y se aplica la inteligencia artificial; de esta manera, el aprendizaje de un coche vale para otros aprendizajes similares, y así se genera una especie de conciencia colectiva que todo lo gestiona, algo parecido a los Borg de Star Trek.

DLL: ¿CUÁLES SON LOS RIESGOS PRINCIPALES ASOCIADOS A LA INTERNET DE LAS COSAS?

PLl: En el mundo de la ciberseguridad se distingue entre safety y security; safety es la seguridad física y security es la seguridad de los sistemas. Normalmente en las organizaciones cada una depende de una persona distinta.

Pues bien, la confluencia que se produce en la IoT es que ya no hay safety y security porque las dos son lo mismo.

Ya no tenemos el problema de un wannacry que pare los sistemas y con ello la operación de una compañía. El problema que tenemos es que, cuando la seguridad se convierte en seguridad física, en safety, podemos causar daños físicos al entorno y esa es la gran barrera.

Que un software esté mal diseñado puede causar daños a una compañía o a una persona física, momento en que entrarán en juego los principios de la responsabilidad por daños por software, pero en principio lo que está claro es que no va a matar a nadie. Ahora bien, si el objeto que está conectado es una bomba de insulina y falla el software que la controla, esto sí puede matar a alguien. Y del mismo modo, si lo que está conectado es un avión, un fallo del software sí que puede matar o causar daños físicos. Y ese es realmente el gran cambio de paradigma, que al ser cosas que tienen impacto, que son físicas, y que de pronto se conectan con nosotros de manera física, pueden causar daño en el nivel físico.

DLL: ¿CABRÍA DIFERENCIAR EN UN DAÑO CAUSADO POR LA COSA EN SÍ MISMA, POR EJEMPLO UNA ASPIRADORA AUTÓNOMA QUE DESTROZA UNA ALFOMBRA VALIOSA, DEL DAÑO CAUSADO A TRAVÉS DE LA COSA, CUANDO POR EJEMPLO ALGUIEN UTILIZA UNA CÁMARA DE SEGURIDAD CONECTADA A INTERNET PARA REALIZAR UN ATAQUE DE DENEGACIÓN DE SERVICIO?

PLl: Creo que lo que tendríamos son dos elementos diferentes: la seguridad del propio elemento y el ataque malicioso de un tercero al elemento conectado.

Normalmente se ha pensado que cuando un producto que sale al mercado no funciona adecuadamente conforme a lo que espera de él, se aplica la famosa ley de producto defectuoso española o comunitaria que establece que desde que un producto sale al mercado tiene que ser seguro y cumplir una serie de requisitos. Podríamos decir que, con la ley española en la mano, si yo actualizo el software de la aspiradora a través de la wifi de mi casa y la máquina pierde la cabeza y se come la alfombra de mi abuela, se ha causado un daño del que tendría que ser responsable el productor.

El problema es que con la ley española la seguridad sólo se asegura en el momento de la puesta en el mercado, no durante el ciclo de vida del producto. De tal manera que el fabricante de mi aspiradora no respondería de que esta se hubiese comido mi alfombra porque esto sería una actualización de software posterior a la puesta de entrada en el mercado del producto, con lo cual me tendría que aguantar y no podría reclamar ese daño.

Y algo parecido sucedería en el caso del hackeo de los dispositivos conectado, donde volvemos otra vez a la idea de que, como el daño lo causa el hacker al entrar en un sistema, con la ley en la mano el dueño del sistema o el dueño del equipo no serían responsables. Y así es como, de nuevo, estaríamos en un caso de irresponsabilidad por parte del productor.

Como vemos, el sistema de daños español, el sistema de daños europeo, no es idóneo para solucionar los problemas de la Internet de las Cosas porque en ambos casos estamos exonerando de responsabilidad al productor y yo creo que el productor, el prestador del servicio, alguna responsabilidad debería de tener

DLL: ¿HACIA DÓNDE DEBERÍA IR ESE MARCO REGULATORIO EN EL ÁMBITO DE LA IOT?

PLl: En la propuesta de regulación de la Inteligencia Artificial y la Robótica del Parlamento Europeo hay ideas muy interesantes a este respecto. Y lo mismo ocurre en la doctrina americana, que contempla figuras que no tenemos en España.

Aquí tenemos, por un lado, el actual sistema de responsabilidad objetiva, la responsabilidad por producto defectuoso, que hace responsable al productor cuando se dan unas determinadas situaciones.

Y precisamente una de las propuestas que se plantean es modificar la regulación de la responsabilidad por producto defectuoso para hacer responsable al productor en determinadas circunstancias, lo cual podría generar un problema porque el productor no siempre va a ser responsable de lo que le pase a su sistema; o sea, el productor de objeto conectado no siempre va a ser responsable de que un hacker entre en una red que no esté debidamente securizada. En segundo lugar, está la doctrina del riesgo, que en la jurisprudencia del Tribunal Supremo español está muy relacionada con la de producto defectuoso o con la responsabilidad objetiva que es que aquél que debería de haber evitado un riesgo, por ejemplo pasa mucho en transportes, en trenes y tal que debería haber puesto una barrera para evitar el paso y no la puso y alguien pasó y el arrolló un tren, pues debe de ser responsable.

El concepto al que va todo, y que tiene todo el sentido y porque el que yo apuesto en el libro, es la teoría del riesgo pero desde la perspectiva de la minimización del riesgo tecnológico; es decir, el que estaba en situación de minimizar el riesgo y no lo hizo debería de ser responsable por los daños que cause.

Vamos a volver al ejemplo de la Rumba: si su fabricante me vende una de estas aspiradoras con un sistema operativo que se actualiza on-line y que además yo no puedo parametrizar como puedo hacer con un programa que instalo en un ordenador, en principio debería de responder por los daños que cause tanto el día que salió al mercado también por todas las actualizaciones de ese software. Es decir, el fabricante debería de procurar que el software fuera seguro y para ello lo que tiene que hacer es establecer unos sistemas de control previo, unas medidas previas de seguridad.

Por eso el libro se llama «Responsabilidad y Seguridad», porque son necesarias unas medidas previas de suficiente cuidado para evitar que se produzca el daño. Es decir: asegúrate, fabricante o productor, de que tus máquinas tengan un botón de pánico para poder pararlas en caso de necesidad; asegúrate de que cuando realicen actividades que puedan estar causando daño se paren automáticamente; asegúrate de que el software se actualiza y asegurarte de que cuando detectes una vulnerabilidad en ese software, bien por un fallo un su programación o porque identifiques un ransomware que podría infectarle, tú avises a tus clientes y les digas: actualícelo.

Si uno hace todo eso debería de estar en una zona de confort, como productor, porque uno ha tomado todas las medidas de cuidado adecuadas para intentar evitar el daño. Porque si a pesar de eso se produce un daño, no se puede pedir al productor que vaya más allá de los límites de cuidado.

Ahora bien, la situación actual es que no estemos en ese punto ni mucho menos. Por tanto el esquema sería establecer unas medidas de seguridad previas, un principio de cuidado, un mantenimiento durante todo el ciclo de vida útil del producto y si los productores se mantienen en eso, exonerarles de responsabilidad basada en el principio de riesgo.

DLL: ¿QUÉ OPINA SOBRE ESE TEMA ACTUALMENTE TAN DEBATIDO QUE ES LA POSIBILIDAD DE ATRIBUIR ALGÚN TIPO DE PERSONALIDAD ELECTRÓNICA, JURÍDICA O DE ALGÚN TIPO A LAS MÁQUINAS INTELIGENTES?

PLl: Sí, es la figura que Pablo García Mexia denomina de los «entes capaces no personales»… Mi opinión a este respecto es, primero, que estamos lejos de esos entes capaces. De hecho el informe del Parlamento europeo propone que, precisamente con base en la doctrina del riesgo, no se podría poner ningún ente capaz en el mercado si no hubiera un sistema de aseguramiento previo basado en esta objetividad; es decir daño que el sistema cause, daño que se paga con un seguro.

O sea, en realidad iríamos a la figura de responsabilidad objetiva que se emplea en el mundo del seguro de los coches y que está basado en la idea de que la mera existencia de coches en el mercado es un riesgo en sí mismo que debe de ser asegurado y que debe de ser asegurado de manera obligatoria.

En este sentido lo que plantea el Parlamento europeo es que como el riesgo es inherente a la propia actividad, lo que debemos de hacer es establecer un sistema de aseguramiento suficiente, con unas Cámaras de compensación que cubran incluso el riesgo de determinados entes no asegurados como existe en España, para poder hacer frente a los daños específicos que este tipo de máquinas causen.

DLL: ¿CÓMO CREE QUE AFECTA LA INTERNET DE LAS COSAS AL MUNDO DEL SEGURO?

PLl.: En mi opinión, lo revoluciona. Es más, yo creo que el seguro tiene ante sí la posibilidad de convertirse en una Cámara de compensación de daños sin necesidad de pasar por los tribunales. La razón es que toda la información que se genera por estas máquinas está en las mismas máquinas, en sus cajas negras, y también está, en tiempo real, en sus plataformas de servicio –porque normalmente estos sistemas se están comunicando permanentementecon ellas.-.

Toda esa información debería permitir organizar un sistema automático de resolución de conflictos detrás del cual estuvieran las propias compañías de seguros estuvieran detrás. Y eso valdría igual para la aspiradora que se come la alfombra que para un coche autoconducido que colisiona con otro.

Es más, ya se están planteando modelo de negocios en donde los coches sean el subproducto, para que los datos que generan sean el producto principal. En este modelo se podría permitir el uso gratuito de esos coches a cambio de los datos que se generan durante su conducción y que sean las grandes compañías de recogida de datos, como Google (que no por casualidad es la gran compañía que está trabajando con los coches autónomos), las que vendan esas bases de datos sectoriales a las compañías de seguros para tomar decisiones.

DLL: ¿ CÓMO AFECTARÍA ESTE SISTEMA DE RESPONSABILIDAD AL LAS MÁQUINAS CAPACES DE AUTOAPRENDER, DE AUTOPROGRAMARSE Y, POR TANTO, DE TOMAR DECISIONES QUE NO ESTÁN PREVISTAS EN SU DISEÑO ORIGINAL, O AL MENOS QUE NO SON ESPERABLES DE ACUERDO CON SU DISEÑO ORIGINAL?

PLl.: Ese es un tema muy interesante del que precisamente me ocupo en el libro. Yo creo que ahí deberíamos de volver a la teoría del riesgo ¿quién tiene la obligación de minimizar el riesgo que causa una máquina que piensa, que está descontrolada? Yo creo que quien la opere, o quien se beneficie de su operación.

Si estamos pensando por ejemplo en una flota de coches que toman decisiones de manera independiente, quien opera esa flota deberá responden por los daños que causen esos vehículos y deberá de buscar una figura de aseguramiento frente a ese tipo de situaciones.

No me atrevo a pensar todavía en humanoides independientes con capacidad de pensar porque eso ya requeriría un cambio completo de nuestro sistema de Derecho Civil y a plantear cuestiones como la de reconocerles derechos o el de pagar impuestos., que ya están encima de la mesa. No quiero ir tan lejos todavía, aunque me encantan las novelas distópicas creo que es ir demasiado lejos. Yo creo que por el momento las máquinas van a estar, por muy inteligentes que sean, operadas por alguien, alguien prestará el servicio, alguien será el último beneficiario de los datos que recojan, alguien los pondrá en el mercado y, por lo tanto, yo creo que ese alguien que los ponga en el mercado deberá de hacerse responsable. Y si el riesgo que asume al tener máquinas inteligentes es excesivo, a lo mejor debería de tenerlas menos inteligentes.

DLL: EN RELACIÓN CON ESE POSIBLE MARCO REGULATORIO, Y DADO QUE ESTAMOS HABLANDO DE TECNOLOGÍAS QUE EVOLUCIONAN A UNA VELOCIDAD BRUTAL ¿CÓMO CREE QUE DEBERÍA ADAPTARSE ESA REGULACIÓN A UN ÁMBITO EN EVOLUCIÓN PERMANENTE?

PLl.: Lo indico en el libro, pero no es nada original. De hecho la Comisión europea va en ese sentido con la cybersecurity act  y con todas las propuestas que se hacen. Ya existen regulaciones flexibles, como el Reglamento de Protección de Datos, o el Reglamento de Identidad Electrónica.

Por eso creo que debemos ir a leyes que establezcan principios básicos de responsabilidad, o a principios básicos de convivencia desde una perspectiva legal, y que permitamos a las entidades de certificación y a las entidades de estandarización establecer requerimientos de naturaleza técnica que sean revisables con la suficiente flexibilidad para establecer un esquema de cumplimiento. De tal manera que, si por ejemplo yo soy la FDA americana y tengo el control de los dispositivos médicos en Estados Unidos, si veo que hay una vulnerabilidad en un marcapasos que está implantado en 450.000 personas tome nota, lance una alerta, esa alerta sea aplicada, dé unas instrucciones de cómo se debe solucionar la vulnerabilidad de los 450.000 marcapasos implantados y, además, establezca una metodología de trabajo con la que, a partir de ahora, quien quiera poner un dispositivo médico en el marcado tenga que cumplir.

Como indico en el libro, si usted pone un marcapasos en el mercado, se tiene que encargar de parchearlo cuando no funcione, para eso no hace falta una ley que lo diga; lo que hace falta es una ley que diga que aquél que no cumpla el deber de cuidado y que no siga los estándares técnicos o las mejoras prácticas recomendadas para su entorno será responsable.

DLL: DE LAS FUTURAS TECNOLOGÍAS QUE VAN A LLEGAR A LAS QUE SE REFIERE EN SU LIBRO, CIUDADES INTELIGENTES, TRANSPORTE INTELIGENTE Y VEHÍCULOS AUTOCONDUCIDOS ¿CUÁLES LE PARECEN MÁS PRÓXIMAS EN EL TIEMPO?

PLl.: Se habla mucho de ciudades inteligentes porque tiene una implicación en el poder público y en la organización. Las ciudades inteligentes tienen una componente muy compleja, política, ecológica, de derecho administrativo y, por eso no creo que en este momento merezca mucho más hablar de ellas. Quien quiera conocer de sus implicaciones puede consultar el libro.

En mi opinión las novedades que están más cercanas son el transporte inteligente. Pero este va a necesitar infraestructuras de transporte inteligente. Pero si ya la gestión de un aeropuerto es complejísima, la aparición de dispositivos inteligentes en movilidad por parte de los propios usuarios, plantea muchas opciones caóticas. O sea que es un escenario extraordinariamente bonito, pero muy complicado.

Y además está el de los coches autoconducidos y que me parece muy interesante porque el coche autónomo carece de sentido sin un entorno completamente autónomo, es decir sin unas infraestructuras inteligentes y sin conexión vehicular, es decir conexión vehículo a vehículo. El problema puede ser cuando en este entorno un conductor no pueda acelerar en un momento dado a más de 60 km/h porque el coche estará conectado con el de al lado pero, además, conectado con una inteligencia central que lo impedirá. Serán coches autónomos que van a comportar como un transporte público.

DLL: PERO PARECE QUE ESE ENTORNO INTELIGENTE VA A TARDAR EN LLEGAR

PLl: Sí, porque además tampoco se puede obligar a la gente a que tenga un coche autoconducido, a no ser que se lo regales, que es un modelo de negocio que ya se están explorando, regalar los coches a cambio de los datos, algo sobre lo que hay algunos proyectos.

DLL: A ESA CUESTIÓN SE HAN REFERIDO RECIENTEMENTE ALGUNOS AUTORES, QUE PLANTEAN ¿POR QUÉ NO PUEDO YO VENDER MIS DATOS?

PLl.: Yo no soy una radical en el mundo del dato, pero estoy conceptualmente en contra de la mercantilización del derecho fundamental de los datos personales, por concepto, porque creo que si trasladamos la sensación de que son monetizables y de que el propio titular puede monetizarlos entramos en una espiral en donde legitimamos a quien ya los está monetizando.

Además, creo que tiene un punto de frivolización porque los estudios que se han hecho dicen que la monetización que se puede sacar de los datos personales de una persona aislada es ridícula, quizás unos 15 o 20 dólares.

Además, mi dato personal como paquete independiente no tiene ningún valor en sí mismo. A Google no le interesan mis datos individualmente considerados, lo que le interesan son mis datos, junto con los datos de todos mis contactos junto con las correlaciones, etc., etc. Cuando yo le pido a Facebook que me dé mis datos, me da un montón de datos, pero lo verdaderamente importante es cómo los trata y cómo los correlaciona con otros y cuáles son las inferencias que saca, cuál es el correlato que saca de un tratamiento de grandes datos.

En definitiva, lo que argumento del valor de los datos es falaz, porque lo que tú monetices de tu dato personal no es lo mismo que va a monetizar una empresa que los trate con otros muchos.

DLL: ¿CÚAL ES LA RELACIÓN ENTRE EL INTERNET DE LAS COSAS Y LA PRIVACIDAD

PLl: La Internet de las Cosas y la movilidad han cambiado completamente el paradigma de la privacidad, porque la recogida de datos que se daba con los PC’s no tiene nada que ver con la recogida de datos que se produce con la llegada de la telefonía inteligente. Antes te recogían los datos de navegación y cuatro cosas más, y ahora pueden  identificarte hasta por la forma en que coges el teléfono y aunque no te logees. De hecho, se están empezando a utilizar esos datos como dato biométrico con otras finalidades.

Lo importante es la cantidad de información que puede generarse por el hecho de que todo lo que te rodea esté conectado, porque ya no importa que tú te apagues el teléfono al montarte en un coche, es que al montarte en un coche el coche te siente, te identifica, te escanea …

Existen también pastillas inteligentes para enfermos de esquizofrenia que ya han sido probados en Estados Unidos que controlan si el enfermo se ha tomado la pastilla o no.

¿Qué pasará cuando el Estado decida controlarnos a todos las pastillas basado en un concepto, que a mí me preocupa mucho, que es el del interés común? En virtud de ese interés se puede invocar que el interés común es el ahorro en la sanidad pública y que si usted se salta la pastilla está yendo en contra de este interés común, y entonces la autoridad se puede convertir la policía de la pastilla y le persigue. O como sucede con el tema del agua, que será un bien escaso, y para el que ya hay sistemas de sensorización en las grandes ciudades de California que permiten saber qué familias no usan demasiado agua, si tiran demasiado de la cadena o hacen un uso irresponsable para tomar medidas de control, etc., etc.

Esta combinación de datos masivos, de posibilidad de conocimiento granular de la persona hasta los límites más insospechados que se te ocurran, más el argumento del interés común me parece sumamente preocupante.

Sobre el autor

Paloma LLaneza

Abogada aunque buena persona. Auditora de sistemas y experta en ciberseguridad. Creadora de Consent Commons. Escritora, ensayista e ikebanaka. Mi universo personal en The LLaneza Firm.

Añade un comentario

Paloma LLaneza

Abogada aunque buena persona. Auditora de sistemas y experta en ciberseguridad. Creadora de Consent Commons. Escritora, ensayista e ikebanaka. Mi universo personal en The LLaneza Firm.

Sigamos en contacto

Blog