ASPECTOS ÉTICOS, LEGALES Y SOCIALES DEL USO DE LA INTELIGENCIA ARTIFICIAL Y EL BIG DATA EN SALUD EN UN CONTEXTO DE PANDEMIA
←
→
Transcripción del contenido de la página
Si su navegador no muestra la página correctamente, lea el contenido de la página a continuación
ASPECTOS ÉTICOS, LEGALES Y SOCIALES DEL USO DE LA INTELIGENCIA ARTIFICIAL Y EL BIG DATA EN SALUD EN UN CONTEXTO DE PANDEMIA ETHICAL, LEGAL AND SOCIETAL ISSUES OF THE USE OF ARTIFICIAL INTELLIGENCE AND BIG DATA APPLIED TO HEALTHCARE IN A PANDEMIC Itziar de Lecuona Universidad de Barcelona, Barcelona, España itziardelecuona@ub.edu Recibido: octubre de 2020 Aceptado: noviembre de 2020 Palabras clave: Inteligencia artificial, Big Data, Apps, investigación e innovación en salud, intimidad y datos personales, comités de ética de la investigación. Keywords: Artificial Intelligence, Big Data, Apps, healthcare research and innovation, privacy and personal data, Research Ethics Committees. Resumen: Ante el uso de la inteligencia artificial, el Big Data y el desarrollo de Apps en salud en situación de pandemia por COVID-19, se analizan las conse- cuencias que para la libertad y la intimidad tiene la tendencia a la mercantiliza- ción de datos personales y la “economía de la atención” promovida por las big tech; la amenaza que supone la “discriminación algorítmica” y la acumulación indiscriminada de datos. Se trata de cuestiones cuyo análisis filosófico-jurídico requiere indagar previamente sobre aspectos técnicos de especial complejidad para así construir una reflexión sólida acerca de las cuestiones bioéticas de las tecnologías emergentes. Abstract: Faced, as we are, with the use of artificial intelligence, Big Data and the development of healthcare Apps in the COVID-19 pandemic, the article analyses the consequences for freedom and privacy of the trend towards the commodification of personal data and the “attention economy” promoted by big tech; the threat posed by “algorithmic discrimination”, and the indiscriminate accumulation of data. These are issues whose philosophical and legal analysis requires us, as a previous step, to look into especially complex technical aspects in order to construct a sound body of thought on bioethical issues in the emerging technologies. Revista Internacional de Pensamiento Político - I Época - Vol. 15 - 2020 - [139-166] - ISSN 1885-589X 139
1. La pandemia por covid-19 y to las tensiones que se generan entre el interés colectivo y los intereses particu- su impacto en la investigación lares entorno a los datos personales. Se- y la innovación en salud ría maleficente no aplicar las tecnologías emergentes y no utilizar datos personales en beneficio de las personas y de la socie- Actualmente buena parte de la investi- dad, y más aún en situación de pandemia gación e innovación en salud que se de- por COVID-19, de ahí que sea necesario sarrolla en los centros de investigación y ponderar derechos e intereses. La pande- hospitalarios públicos y privados en nues- mia ha intensificado los debates sobre la tro contexto, utiliza tecnologías emergen- protección de la intimidad y ha generado tes como la inteligencia artificial y la analí- una falsa dicotomía entre seguridad y pro- tica de datos masivos (Big Data). Se trata tección de los datos personales que nada de identificar patrones de comportamien- ayuda a un tratamiento adecuado de los to para predecir conductas y mejorar así derechos e intereses en juego. la toma de decisiones mediante el desa- rrollo de algoritmos.1 Para ello, es preciso Los intereses de la ciencia y de la tecnolo- acceder y tratar conjuntos de datos, entre gía no deben prevalecer sobre los del indi- los que se incluyen los datos personales. viduo4. Es necesario analizar las implica- ciones éticas, legales y sociales del uso de La Unión Europea promueve una socie- tecnologías emergentes y datos persona- dad digital guiada por el dato2 para crear les, pero también las cuestiones técnicas un mercado único digital competitivo que aparejadas. Así será posible avanzar en permita el liderazgo en el plano interna- el desarrollo de pautas que permitan que cional. Esta es una apuesta económica y derechos como la intimidad o la toma de científica que incluye una medicina más decisiones libre e informada se protejan personalizada, así como la mejora de los en los entornos altamente digitalizados sistemas sanitarios para que sean más del ámbito de la salud. eficientes y permitan un envejecimiento activo y saludable.3 Esta decisión políti- Estas tecnologías se nutren de conjuntos ca también permite poner de manifies- de datos -entre ellos, datos personales-5, 1. La Real Academia de la lengua española define 4. Art. 2.: “Primacía del ser humano. El interés “algoritmo” como un “Conjunto ordenado y fini- y el bienestar del ser humano deberán prevale- to de operaciones que permite hallar la solución cer sobre el interés exclusivo de la sociedad o de de un problema.” Real Academia Española: Dic- la ciencia.” Convenio para la protección de los cionario de la lengua española, 23.ª ed. Última derechos humanos y la dignidad del ser humano consulta 30 de octubre de 2020, disponible en: con respecto a las aplicaciones de la Biología y https://dle.rae.es la Medicina (Convenio relativo a los derechos 2. Comisión Europea, Communication on data- humanos y la biomedicina), Consejo de Europa, driven economy COM(2014)442 final Última Oviedo, 4 de abril de 1997. Última consulta 30 consulta 30 de octubre de 2020, disponible de octubre de 2020, disponible en: https://www. en:https://ec.europa.eu/transparency/regdoc/ coe.int/en/web/conventions/full-list/-/conven- rep/1/2014/EN/1-2014-442-EN-F1-1.Pdf tions/rms/090000168007cf98 3. Comisión Europea, Programa Marco de In- 5, “Son categorías especiales de datos aquellos vestigación HORIZONTE 2020 Última consulta que revelen el origen étnico o racial, las opinio- 30 de octubre de 2020, disponible en:https:// nes políticas, las convicciones religiosas o filosó- ec.europa.eu/programmes/horizon2020/en ficas o la afiliación sindical, los datos genéticos Revista Internacional de Pensamiento Político - I Época - Vol. 15 - 2020 - [139-166] - ISSN 1885-589X 140
almacenados en su mayoría en bases de salud como: a) el desarrollo de sistemas datos, como las que contienen historias de predicción y gestión de la pandemia clínicas, bajo criterios de calidad y seguri- por COVID-19; y b) las Hackatones o re- dad.6 Así, el objetivo es combinar distintos tos para desarrollar algoritmos en las que conjuntos de datos procedentes de dife- participan terceros, fundamentalmente rentes bases, entre las que se incluyen especialistas en informática y ciencia de repositorios dedicados exclusivamente a los datos, que normalmente compiten por investigación.7 Junto a las historias clíni- un premio. Estos retos pueden ser el pre- cas informatizadas cabe también la posi- ludio de proyectos de investigación pun- bilidad de combinar esta información con teros orientados a la detección de sínto- la que proviene de otras fuentes y plata- mas y la predicción de enfermedades. La formas que pueden recoger datos perso- investigación y la innovación que se lleva nales en tiempo real. Conviene tener en a cabo actualmente, y en particular por cuenta que hoy la emisión, recopilación y COVID-19, dista mucho de aquella para almacenamiento de datos personales es la que se establecieron pautas y requisitos constante, bien sea de forma voluntaria o tras la Segunda Guerra Mundial8. Aquella involuntaria por parte de su titular. estaba fundamentalmente centrada en el desarrollo de medicamentos y productos Para ayudar a identificar el problema pue- sanitarios de uso humano, con el ensayo den ponerse algunos ejemplos de uso de clínico como paradigma. Hoy, la industria tecnologías emergentes y tratamiento de farmacéutica cierra acuerdos millonarios datos personales en procesos de crea- con empresas dedicadas a la genética ción y transferencia de conocimiento en y biométricos, datos relativos a la salud y la vida sexual o las orientaciones sexuales de una perso- na física” (art. 9) 8. ASOCIACIÓN MÉDICA MUNDIAL, De- claración de Helsinki: principios éticos para Reglamento relativo a la protección de las per- las investigaciones médicas en seres humanos. sonas físicas en lo que respecta al tratamiento de Adoptada por la 18ª Asamblea Médica Mundial, datos personales y a la libre circulación de estos Helsinki, Finlandia, junio 1964 y enmendada por datos y por el que se deroga la Directiva 95/46/ la 29ª Asamblea Médica Mundial, Tokio, Japón, CE (Reglamento general de protección de datos). octubre 1975 35ª Asamblea Médica Mundial, R. (UE) 2016/679 (27 abril 2016). Venecia, Italia, octubre 1983 41ª Asamblea Mé- 6. Véanse la Historia Clínica compartida (HC3) dica Mundial, Hong Kong, septiembre 1989 48ª de Cataluña https://salutweb.gencat.cat/ca/ Asamblea General Somerset West, Sudáfrica, ambits_actuacio/linies_dactuacio/tecnologies_ octubre 1996 52ª Asamblea General, Edimbur- informacio_i_comunicacio/historia_clinica_ go, Escocia, octubre 2000 Nota de Clarificación, compartida/ y el Programa de historia clí- agregada por la Asamblea General de la AMM, nica informatizada en atención primaria de Washington 2002 Nota de Clarificación, agrega- Cataluña (eCAP) https://salutweb.gencat.cat/ da por la Asamblea General de la AMM, Tokio ca/ambits_actuacio/linies_dactuacio/tecnolo- 2004 59ª Asamblea General, Seúl, Corea, octu- gies_informacio_i_comunicacio/ecap/ Última bre 2008 64ª Asamblea General, Fortaleza, Bra- consulta 30 de octubre de 2020. sil, octubre 2013 y NATIONAL COMMISSION 7. Por ejemplo, el Sistema de Información para FOR THE PROTECTION OF HUMAN SUB- el desarrollo de la Investigación en Atención Pri- JECTS OF BIOMEDICAL AND BEHAVIO- maria de Cataluña (SIDIAP), Última consulta 30 RAL RESEARCH, The Belmont Report: Ethical de octubre de 2020, disponible en: https://www. Principles and Guidelines for the Protection of sidiap.org/index.php/es Human Subjects of Research, U.S.A, 1979. Revista Internacional de Pensamiento Político - I Época - Vol. 15 - 2020 - [139-166] - ISSN 1885-589X 141
directa al consumidor9 para acceder a de manifiesto la necesidad de articular bases de datos personales, que incluyen mecanismos para asegurar la transparen- datos de salud, información genética, cia. Precisamente, uno de los mayores datos sociodemográficos e incluso gus- retos de nuestro tiempo es controlar los tos y preferencias. Estas bases de datos usos secundarios de los datos personales, han sido creadas con fines comerciales los usos no deseados y aquellos que pue- para predecir el riesgo a padecer enfer- dan dar lugar a discriminaciones, espe- medades de base genética, pero también cialmente aquellas encubiertas. pueden informar sobre los ancestros10 o Asimismo, en el ámbito hospitalario se incluso emplearse para encontrar a fami- prueban y aplican sistemas de inteligencia liares y delincuentes. Este supuesto ejem- artificial para analizar y aprender de las plifica cómo los negocios e iniciativas so- historias clínicas informatizadas con el bre datos personales son exponenciales, y fin de mejorar los procesos asistencia- también permite cuestionar si los titulares les. Asistimos hoy al auge del desarrollo de los datos personales tienen el control de Apps de salud para, por ejemplo, eva- sobre estos11 en la era digital, lo que pone luar síntomas o para identificar posibles positivos por COVID-19 y rastrear a sus 9. Instrumento de Ratificación del Convenio para contactos como herramientas de apoyo la protección de los derechos humanos y la digni- dad del ser humano con respecto a las aplicacio- en el marco de la salud pública, con no nes de la Biología y la Medicina (Convenio rela- pocas dudas acerca de su fiabilidad y se- tivo a los derechos humanos y la biomedicina), guridad12. Estos dispositivos digitales de hecho en Oviedo el 4 de abril de 1997. Última salud forman parte del llamado internet consulta 30 de octubre de 2020, disponible en: de las cosas y mHealth13 en el ámbito de https://www.boe.es/buscar/doc.php?id=BOE- la salud, en el que distintos dispositivos, A-1999-20638. El Convenio de Oviedo contiene que también incluyen diversos sensores disposiciones específicas relativas a la genética (artículos 11 a 14), en particular, las pruebas y vestibles o wearables, permiten la co- genéticas de predicción y las intervenciones en nectividad entre sí y una monitorización el genoma humano. Véase también: Consejo de constante de las personas. Los titulares Europa, Additional Protocol to the Convention de los datos personales que alimentan a on Human Rights and Biomedicine concerning Genetic Testing for Health Purposes, CETS 12. Manifiesto en favor de la transparencia en No.203, hecho en Estrasburgo el 11 de noviem- desarrollos de software públicos, septiembre de bre de 2008. Última consulta 30 de octubre de 2020, última consulta 30 de octubre de 2020, 2020, disponible en: https://www.coe.int/en/web/ disponible en: https://transparenciagov2020. conventions/full-list/-/conventions/treaty/203 github.io/ 10. “GlaxoSmithKline strikes $300 million deal 13. La OMS define mHealth como “la práctica with 23andMe for genetics-driven drug research”, médica y de salud pública apoyada por dispo- CNBC, 25 de julio de 2018, Última consulta 30 de sitivos móviles, como teléfonos móviles, dis- octubre de 2020, disponible en: https://www.cnbc. positivos de vigilancia de pacientes, asistentes com/2018/07/24/glaxosmithkline-23andme-team- digitales personales (PDA) y otros dispositivos up-on-genetics-driven-drug-research.html inalámbricos.” 11. Tutton, R., Prainsack, B. “Enterprising or Organización Mundial de la Salud, Global altruistic selves? Making up research subjects Observatory for eHealth series, vol.3 Suiza, in genetics research”, Sociology of Health & 2011. Última consulta 30 de octubre de 2020, Illness, 2011, Vol. 33, núm. 7 pp. 1081-1095. disponible en: https://www.who.int/goe/publica- doi:10.1111/j.1467-9566.2011.01348.x tions/goe_mhealth_web.pdf Revista Internacional de Pensamiento Político - I Época - Vol. 15 - 2020 - [139-166] - ISSN 1885-589X 142
estos sistemas que utilizan tecnologías tradicional como la innovación que tiene emergentes son a su vez destinatarios, que validarse con datos personales, son en su mayoría, de los resultados de estos evaluadas por los correspondientes comi- procesos. tés de ética de la investigación acredita- dos por los departamentos de salud de las Las Apps así como otras intervenciones Comunidades Autónomas, establecidos y desarrollos en el ámbito de la salud, para analizar los aspectos metodológicos, deben ser probadas en entornos contro- éticos, legales y sociales de los proyectos lados mediante la participación de per- de investigación, pero no la innovación en sonas o el uso de datos personales para salud. que sean validadas antes de su utilización de forma generalizada. Aplicaciones y Debido a la cantidad de información per- dispositivos que estarán a disposición del sonal almacenada y al desarrollo de tec- consumidor, y para los que se reclaman nología para combinarla, hemos dejado sistemas de certificación que garanticen de ser datos aislados para convertirnos en que sus creadores merecen la confianza conjuntos de datos personales candida- de los usuarios finales que, como se ha tos a ser explotados por parte de distintos indicado anteriormente, se nutren de los actores con intereses diversos, y poten- datos de éstos14. Se persigue así obtener cialmente en conflicto. Hoy la posibilidad el sello de calidad de los algoritmos, que de reidentificar a una persona con datos depende en buena parte de la reputación como el sexo, el código postal y la fecha de las entidades en las que éstos se prue- de nacimiento es muy elevada15. Esta si- ban y comprueban, y de la calidad de los tuación exige que se establezcan medidas datos que manejan. Son numerosas las técnicas y organizativas para que el uso iniciativas que llaman a las puertas de de las tecnologías con determinados fines grandes hospitales y centros de investi- en salud no permitiera la reidentificación gación de referencia para obtener el aval de las personas, es decir, la no atribución ético de sus fórmulas algorítmicas. Estas de personalidad16. Esta es una cuestión propuestas han aumentado considera- 15. Sweeney, L., “Simple Demographics Often blemente durante la pandemia por CO- Identify People Uniquely”. Carnegie Mellon VID-19. Especialmente Apps que tienen University, Data Privacy Working Paper 3. Pitts- como objetivo recopilar datos mediante burgh 2000. Última consulta 30 de octubre de el formato encuesta solicitando numero- 2020, disponible en: https://dataprivacylab.org/ sos datos personales. Son ejemplos los projects/identifiability/paper1.pdf sistemas digitales para evaluar síntomas 16. En la mayoría de los casos la seudonimiza- y también encuestas para proveer sopor- ción debería exigirse por defecto. Se entiende por seudonimización el “tratamiento de datos perso- te emocional. Así, tanto la investigación nales de manera tal que ya no puedan atribuirse a un interesado sin utilizar información adicional, 14. En este sentido véase por ejemplo el pro- siempre que dicha información adicional figure yecto de investigación NESTORE: financiado por separado y esté sujeta a medidas técnicas por el Programa Marco de Investigación Hori- y organizativas destinadas a garantizar que los zonte2020 de la Unión Europea para desarrollar datos personales no se atribuyen a una persona un sistema de consejo virtual para un envejeci- física identificada o identificable. Real Academia miento activo. Última consulta 30 de octubre de Española: Diccionario de la lengua española, 23.ª 2020, disponible en: https://cordis.europa.eu/ ed. Última consulta 30 de octubre de 2020, dis- project/id/769643/es ponible en: https://dle.rae.es Revista Internacional de Pensamiento Político - I Época - Vol. 15 - 2020 - [139-166] - ISSN 1885-589X 143
técnica que es crucial para comprender el 50 millones de personas a través de las fenómeno al que se enfrenta la sociedad redes sociales. El objetivo era influir en los digital. Por las razones aducidas, no es perfiles considerados más vulnerables19. posible garantizar el anonimato. Tampoco Este caso ejemplifica una de las prácti- serían válidos buena parte de los proce- cas de nuestro tiempo, la elaboración de sos y protocolos de información y consen- perfiles que consiste en cualquier forma timiento informado asentados en esta ga- de tratamiento de los dato personales rantía de anonimización17. De otra forma, que evalúe aspectos personales relativos se genera una falsa seguridad asentada a una persona física, en particular para en una cláusula ya obsoleta como es la analizar o predecir aspectos relacionados anonimización. con el rendimiento en el trabajo, la situa- ción económica, la salud, las preferen- En el contexto europeo se ha transitado cias o intereses personales, la fiabilidad de un sistema analógico a otro digital sin o el comportamiento, la situación o los llevar a cabo un debate social informado movimientos del interesado, en la medi- sobre las consecuencias del desarrollo y da en que produzca efectos jurídicos en aplicación de la investigación y la inno- la persona o le afecte significativamente vación orientada a la monitorización de de modo similar, y que está regulada por la conducta de las personas a través de el Reglamento General de Protección de entornos digitales. Las citadas tecnologías Datos, permitiéndola en determinadas cir- evolucionan a una velocidad sin prece- cunstancias. Los desafíos tecnológicos re- dentes. Esta rapidez impide una reflexión presentan también un reto para la libertad pausada sobre los beneficios y los riesgos humana no sea anulada20. de cada una de las tecnologías emergen- tes, así como decidir qué iniciativas se priorizan y con qué fines e impacto social. 2. La tendencia a la Si bien es cierto que los ritmos de produc- ción normativa y de los procesos de crea- explotación y a la ción y aplicación del conocimiento no son mercantilización de los datos los mismos, se produce cierta parálisis en personales la aplicación de las normas18. En 2018 los medios revelaron que la con- No cabe duda de que los datos perso- sultora Cambridge Analytica contribuyó a nales son el oro de nuestro tiempo y el que Donald Trump ganara las elecciones interés por acceder a ellos es creciente, de 2016, mediante la manipulación de la también porque el acceso a estos permite intención de voto de aproximadamente 19. The Cambridge Analytica Files, The Guar- 17. De Lecuona, I., “Evaluación de los aspectos dian, 17 de marzo de 2018. Última consulta 30 metodológicos, éticos, legales y sociales de pro- de octubre de 2020, disponible en: https://www. yectos de investigación en salud con datos ma- theguardian.com/news/series/cambridge-analyti- sivos (Big Data)”, Gaceta Sanitaria, 2018, Vol. ca-files 32. Núm. 6, pp. 576-578. DOI: 10.1016/j.gace- 20. Harari, Y.N., “Los cerebros hackeados ta.2018.02.007 votan”, El País, 6 de enero de 2019. Última 18. Rodotà, S., La vida y las reglas; Entre el de- consulta 30 de octubre de 2020, disponible en: recho y el no derecho, Editorial Trotta, Madrid, https://elpais.com/internacional/2019/01/04/ac- 2010 tualidad/1546602935_606381.html Revista Internacional de Pensamiento Político - I Época - Vol. 15 - 2020 - [139-166] - ISSN 1885-589X 144
abrir innumerables posibilidades de tra- les vestidos de buenas intenciones, como tamiento y aplicación, incluidos modelos puede ocurrir a propósito de la pandemia de negocio en salud. La iniciativa pública por COVID-19, deben ser identificados y privada centra su atención en la infor- con urgencia. Puede afirmarse que existe mación personal, por lo que esta informa una falta de comprensión de las implica- de sus titulares, pero también, por lo que ciones que tiene el nuevo paradigma digi- puede predecir, si se destinan suficientes tal asentado en la utilización de tecnolo- recursos humanos y materiales y se for- gías emergentes y la explotación intensiva mulan las hipótesis adecuadas. Por estas de datos personales para la dignidad de razones, en el ámbito de la salud es pre- las personas y sus derechos y liberta- ciso evitar oportunistas que accedan a los des fundamentales. Existe una profun- datos personales con intereses espurios da desafección por los datos personales alejados del bien común o del interés co- que puede tener efectos perversos en el lectivo que habilitaría a tratarlos21. sistema de investigación e innovación en salud. El uso de los datos personales no Es necesario evitar mercados de datos puede resultarnos indiferente. En la so- disfrazados de investigación e innovación ciedad digital, todos somos relevantes. Es en salud que aumenten las desigualda- necesario crear ontologías24 para mejorar des existentes y la discriminación22, y que la toma de decisiones y éstas necesitan permitan el lucro de terceros mediante la numerosos conjuntos de datos. Nuestra monetización de datos personales23. Es- información y nuestra identidad digital es tos posibles mercados de datos persona- objeto de deseo para la iniciativa pública 21. De Lecuona, I., “La tendencia a la mercan- y privada. tilización de partes del cuerpo humano y de la El acceso a datos personales confiere un intimidad en investigación con muestras biológi- poder extraordinario a terceros, bien sea cas y datos (pequeños y masivos)”, en Casado, M. (Coord.), De la solidaridad al mercado: el la iniciativa pública o privada, sobre los ti- cuerpo humano ante el comercio biotecnológico, tulares de estos y pueden dar lugar a usos Editorial Fontamara, México, 2016, pp. 267-296. no deseados, y a discriminaciones, algu- 22. Casado, M. (Coord.), De la solidaridad al nas de ellas encubiertas. Por otra parte, mercado: el cuerpo humano ante el comercio el “solucionismo tecnológico”25 que en- biotecnológico, Editorial Fontamara, México, tiende la aplicación de tecnología per se 2016. Reeditado por Edicions i Publicacions como solución a los problemas y retos de de la Universitat de Barcelona, Barcelona, nuestro tiempo, y el ajetreo que provoca 2018. Última consulta 30 de octubre de 2020, la velocidad a la que se desarrolla la tec- disponible en: http://diposit.ub.edu/dspace/bitstr eam/2445/116007/1/9788447541195.pdf y Gar- nología digital26, banalizan el uso de datos cía Manrique, R. (Coord.), El cuerpo disemina- do. Estatuto, uso y disposición de los biomateria- 24. Casanovas, P. et al, AI Approaches to the les humanos, Editorial Aranzadi, Cizur Menor, Complexity of Legal Systems. Complex Systems, 2018. the Semantic Web, Ontologies, Argumentation, and Dialogue, volume 6237, Springer, 2010. 23. De Lecuona, I. “Evaluación de los aspec- tos metodológicos, éticos, legales y sociales de 25. Morozov, E., La locura del solucionismo tec- proyectos de investigación en salud con datos nológico. Katz-Clave intelectual, Madrid, 2015. masivos (Big Data)”, Gaceta Sanitaria, 2018, 26. Wajcman, J., Esclavos del tiempo: Vidas ace- Vol. 32. Núm. 6, pp. 576-578. DOI: 10.1016/j. leradas en la era del capitalismo digital, Paidós, gaceta.2018.02.007 Barcelona, 2017. Revista Internacional de Pensamiento Político - I Época - Vol. 15 - 2020 - [139-166] - ISSN 1885-589X 145
personales y el significado de la intimidad avanzar en la medicina traslacional y re- y la confidencialidad en nuestra sociedad. generativa. Estos repositorios que están Si bien la intimidad debería tratarse como regulados en España desde el año 2007, un valor esencial y un bien común a pro- también están en el punto de mira de ini- teger, la tendencia es a entender la infor- ciativas privadas, especialmente los bio- mación personal como moneda de cam- bancos públicos, en los que se recogen bio que puede ofrecerse al mejor postor, muestras biológicas humanas de alto va- sin atender a los usos y las consecuencias lor científico donadas por las personas de que pudieran tener para su titular y para forma altruista y solidaria. Los biobancos las generaciones futuras. La utilización y, en particular, los de carácter público no de información genética es un magnífico pueden estar a merced de las reglas del ejemplo. mercado y no están exentos de prácticas mercantilistas. En nuestro contexto, el sistema de inves- tigación se asienta en los principios de Es necesario identificar prácticas mer- solidaridad y altruismo. Así, las personas cantilistas vestidas de buenas intenciones donan muestras biológicas y datos per- también en el ámbito de los biobancos. sonales27 para que el aumento de cono- Un ejemplo es el interés por el acceso a cimiento, las intervenciones y los trata- muestras biológicas humanas almace- mientos que se desarrollen reviertan en nadas en estos repositorios por parte de beneficio de la sociedad y de las genera- empresas, solicitando estas el monopolio ciones futuras, entendiendo que las per- para su “posicionamiento” a cambio de sonas no siempre obtendrán provecho de publicaciones en revistas de reconocido manera directa. Además, dado que bue- prestigio o mediante acuerdos económi- na parte de la investigación que se lleva a cos que conducen a la venta de muestras cabo está financiada mediante el pago de biológicas en el extranjero29. Estas prácti- impuestos, esta debe revertir en beneficio cas son lo opuesto a la integridad cientí- del interés colectivo y el bien común. fica y degradan la confianza de la socie- dad en la ciencia. Se trata de propuestas La tendencia a la mercantilización de da- que están permitidas en países donde la tos personales también se despliega en iniciativa pública no cubre determinadas el uso de muestras de biológicas de ori- necesidades en investigación en salud y gen humano28. Estas están almacenadas en biobancos públicos y privados para bitstream/2445/116007/1/9788447541195. pdf 27. Véase por ejemplo la Ley 14/2007, de 3 29. De Lecuona, I., “La tendencia a la mercan- de julio, de Investigación biomédica. Última tilización de partes del cuerpo humano y de la consulta 30 de octubre de 2020, disponible en: intimidad en investigación con muestras biológi- https://www.boe.es/eli/es/l/2007/07/03/14 cas y datos (pequeños y masivos)”, en Casado, 28. Rubio, A., “Sujeto, cuerpo y mercado. Una re- M. (Coord.), De la solidaridad al mercado: el lación compleja.” en Casado, M. (Coord.), De la cuerpo humano ante el comercio biotecnológico, solidaridad al mercado: el cuerpo humano ante Editorial Fontamara, México, 2016, pp. 267-296. el comercio biotecnológico, Editorial Fontamara, Sevillano, E., “Mi tumor se vende en el extranje- México, 2016. Reeditado por Edicions i Publica- ro”, El País, 25 de julio de 2016. Última consulta cions de la Universitat de Barcelona, Barcelona, 30 de octubre de 2020, disponible en: 2018. Última consulta 30 de octubre de 2020, https://elpais.com/politica/2016/07/24/ disponible en: http://diposit.ub.edu/dspace/ actualidad/1469369527_015224.html Revista Internacional de Pensamiento Político - I Época - Vol. 15 - 2020 - [139-166] - ISSN 1885-589X 146
atención sanitaria y que siguen políticas las agencias de acreditación del sistema neoliberales. Aquello que está permitido universitario y de investigación de los Es- en otros lugares no puede aceptarse en tados, provocando en numerosas ocasio- nuestro contexto. La globalización de las nes efectos no deseados en los procesos prácticas mercantilistas sobre muestras de creación de conocimiento científico31. biológicas de origen humano y los datos Y es cierto que la brecha entre la sociedad personales asociados no justifica que y la ciencia es cada vez mayor. Una situa- deban permitirse, precisamente porque ción paradójica puesto que parecería que torpedea los cimientos del sistema inves- hoy el ciudadano dispone de más infor- tigador. Estas prácticas deben ser identifi- mación que antes para someter a escru- cadas por parte de los actores que toman tinio el avance de conocimiento científico decisiones en los procesos de creación y y tecnológico y sus aplicaciones32. En la aplicación del conocimiento y para ello se aplicación de las tecnologías emergentes requiere un profundo conocimiento de y el uso datos personales y que incluye el las cuestiones científicas, pero también desarrollo de dispositivos de salud, predo- del marco ético y legal aplicable en una mina la opacidad propia de los negocios sociedad de mercado en la que el precio digitales33. Esta situación debe evitarse sustituye fácilmente al valor de las cosas. para transitar hacia un modelo que permi- Se trata de maniobras sutiles que ade- ta la gobernanza de los datos y el acceso a más juegan con los requisitos del propio la información de forma transparente. sistema científico, que pueden ser vistas como fortalezas o debilidades, en el que La pandemia por COVID-19 ha puesto de los investigadores están abocados fun- manifiesto que Europa no tiene infraes- damentalmente a publicar los resultados tructuras públicas suficientes que permi- de su investigación y a atraer financiación tan un sistema de gestión de datos sólida para llevar a cabo sus proyectos también y eficaz. Además, tanto los Estados miem- en beneficio de la institución en la que trabajan. 31. Casado, M., Patrão Neves, M., De Lecuona, I., Carvalho, A., Araújo, J., Declaración sobre inte- Así, el avance del conocimiento cientí- gridad científica en investigación e innovación res- fico, y su aplicación, tiene lugar en am- ponsable, Edicions i Publicacions de la Universitat bientes muy competitivos, con equipos de Barcelona, Barcelona, 2016. Última consulta interdisciplinares, de distinta procedencia 30 de octubre de 2020, disponible en: http:// www.bioeticayderecho.ub.edu/es/declaracion- geográfica y culturalmente diversos, y en sobre-integridad-cientifica-en-investigacion-e- los que “publicar o morir” y las reglas del innovacion-responsable mercado se imponen30. Un ejemplo más 32. Casado, M., Puigdomènech, P. (Coords.) Do- a considerar es la faceta emprendedora cumento sobre los aspectos éticos del diálogo que se le exige al académico-investigador entre ciencia y sociedad, Edicions i Publicacions para transferir al mercado los resultados de la Universitat de Barcelona, Barcelona, 2018. de su investigación y que sean valorizados Última consulta 30 de octubre de 2020, disponible mediante la financiación de fondos de in- en: http://www.bioeticayderecho.ub.edu/sites/ versión o de capital-riesgo, entre otras fór- default/files/documents/doc_ciencia-sociedad.pdf mulas. Este requisito viene impuesto por 33. Pasquale, F., The black box society: the secret algorithms that control money and information 30. Sandel, M., Lo que el dinero no puede com- Cambridge, Massachusetts; London, England: prar, Editorial Debate, España, 2013. Harvard University Press, Boston, 2015. Revista Internacional de Pensamiento Político - I Época - Vol. 15 - 2020 - [139-166] - ISSN 1885-589X 147
bros como la Unión Europea dependen tivos y el rastreo de contactos deben ser excesivamente de las grandes tecnológi- consideradas como un ejemplo de nue- cas fundamentalmente norteamericanas, vos servicios e infraestructuras públicas centradas en extraer valor de los datos digitales al servicio del bien común y del y no en crear valor34. Estas empresas a interés colectivo, y deben diseñarse, pro- las que recurre tanto la iniciativa pública barse y aplicarse desde la máxima trans- como privada para la prestación de servi- parencia. Desafortunadamente en el caso cios tienen, como es lógico, objetivos dis- español no ha sido así. La App RADAR tintos a la investigación e innovación en COVID es un claro ejemplo de opacidad y salud, e interés en acceder a los conjuntos falta de transparencia. Esta App recomen- de datos, especialmente los de carácter dada por el gobierno español para la iden- personal. Un interés que difiere del que tificación de posibles positivos y el rastreo pueda tener un médico o un investiga- de sus contactos no ha sido objeto de un dor. El modelo de negocio de las bigtech debate social informado acerca de su dise- se basa en el acceso a datos personales ño, validación e implementación. Se han para su explotación y monetización. Hoy revelado importantes brechas de seguri- se debaten los perniciosos efectos que ha dad con elevado impacto para la intimidad generado la “economía de la atención” 35 de los usuarios y no se han llevado a cabo promovida fundamentalmente por el im- las correspondientes evaluaciones para pero GAFAM (Google, Apple, Facebook, identificar riesgos para los tratamientos de Amazon y Microsoft por sus siglas en in- datos personales. Tampoco se ha liberado glés), que ha abierto un pujante mercado el código de programación en los reposito- de servicios basado en la explotación de rios en abierto habilitados a tal efecto para datos personales y del que somos depen- poder entender su lógica e identificar pro- dientes, voluntaria e involuntariamente. blemas, ni el expediente de contratación Pocas veces se reconoce que el auge de pública que incluye una prueba piloto en GAFAM ha sido posible porque los Esta- la Gomera a la que tampoco se ha podi- dos han creado las infraestructuras nece- do acceder a pesar de varias peticiones sarias mediante el pago de impuestos de ciudadanas a través del portal de transpa- los contribuyentes. Internet y el GPS son rencia y de grupos de expertos asesores ejemplos y los gobiernos deben garantizar ministeriales sobre COVID-1937. El gobier- que un valor que se ha creado colectiva- no ha esgrimido que publicar esta informa- mente esté al servicio del bien común36. ción podría dañar intereses comerciales Las Apps para la identificación de posi- para INDRA38, la empresa beneficiaria y 34. Mazzucato, M., El estado emprendedor. RBA 37. Pérez, J, “La ‘app’ Radar Covid ha tenido una Libros, Barcelona, 2014. brecha de seguridad desde su lanzamiento”, El 35. Patino, B., La civilización de la memoria de País, 22 de octubre de 2020, Última consulta 30 pez. Alianza Editorial, Madrid, 2020 y Zuboff, de octubre de 2020, disponible en: https://elpais. S., The age of surveillance capitalism, Publi- com/tecnologia/2020-10-22/la-app-radar-covid- cAffairs, Nueva York, 2019. ha-tenido-una-brecha-de-seguridad-desde-su- 36. Mazzucato, M., “Preventing Digital Feu- lanzamiento.html dalism”, Social Europe, 9 de octubre de 38. Véase la Resolución de 13 de octubre de 2019, Última consulta 30 de octubre de 2020, 2020, de la Subsecretaría, por la que se publica disponible en: https://www.socialeurope.eu/ el Acuerdo entre el Ministerio de Asuntos preventing-digital-feudalism Económicos y Transformación Digital y el Revista Internacional de Pensamiento Político - I Época - Vol. 15 - 2020 - [139-166] - ISSN 1885-589X 148
que, por ello, mantiene su confidenciali- Inteligencia Artificial41. Meses antes, An- dad. Conviene tener en cuenta esta App gela Merkel había alertado de la situación formaría parte de las nuevas infraestructu- de dependencia de las big tech afectando ras públicas en materia de salud pública a la competitividad europea42. al servicio de los ciudadanos y financiada No contar con un sistema sólido para la por estos mediante el pago de impuestos, y gestión de datos que permita el acceso, que ha costado 330.537,52 euros39. la interoperabilidad y la reutilización de El software, las Interfaces de Programa- datos, incluidos los datos personales,43 ción de Aplicaciones (APIs), las nubes y es un obstáculo para la ciencia y para la los servicios que se usan en el ámbito bio- toma de decisiones políticas. Los datos médico son, en su mayoría, propiedad de personales objeto de tratamiento deben las bigtech. Es alarmante que no existan ser fiables, de calidad, y almacenarse de nubes propias desarrolladas por y para formar segura, permitiendo su trazabili- los sistemas sanitarios públicos que per- mitan, como se ha indicado, la interope- 41. Comisión Europea, Communication from the commission to the European Parliament, rabilidad en condiciones seguras, ni tam- the Council, the European Economic and Social poco nubes académicas donde compartir Committee and the Committee of the Regions. A los datos de investigación40. Este vacío y European strategy for data, Bruselas, 19 de febre- retraso con respecto a la iniciativa priva- ro de 2020 COM(2020) 66 final. Última consulta da condiciona el acceso y la utilización de 30 de octubre de 2020, disponible en: https:// los datos, y obliga a exigir a los Estados eur-lex.europa.eu/legal-content/EN/TXT/?qi- garantías que aseguren la intimidad y la d=1593073685620&uri=CELEX:52020DC0066 confidencialidad de los datos, así como a Comisión Europea, White Paper on Artificial Intelligence - A European approach to excellen- establecer las condiciones para el control ce and trust Brussels, 19 de febrero de 2020, de estos por sus titulares. Las primeras COM(2020) 65 final Última consulta 30 de reacciones para romper el dominio del octubre de 2020, disponible en: https://ec.europa. imperio GAFAM se produjeron justo antes eu/info/sites/info/files/commission-white-paper- de la pandemia por COVID-19. En febrero artificial-intelligence-feb2020_en.pdf de 2020, la Unión Europea presentó su 42. Pellicer, L. “Europa ultima un plan para estrategia digital y el Libro Blanco sobre dar la batalla en el negocio de los datos”, El País, 17 de noviembre de 2019. Última consulta 30 de octubre de 2020, disponible en: https://elpais.com/economia/2019/11/16/ actualidad/1573926886_318836.html Ministerio de Sanidad, acerca de la aplicación 43. Comisión Europea, Turning Fair into reality, «Radar COVID». Brussels, 2018. Última consulta 30 de octubre de 39. Manifiesto en favor de la transparencia en 2020, disponible en: https://ec.europa.eu/info/si- desarrollos de software públicos, septiembre de tes/info/files/turning_fair_into_reality_0.pdf 2020, Última consulta 30 de octubre de 2020, Comisión Europea, Directorate-General for Re- disponible en: https://transparenciagov2020. search & Innovation H2020 Programme, Guide- github.io/ lines on FAIR Data Management in Horizon 40. Grupo De Trabajo Multidisciplinar Covid-19 2020, de 26 de julio de 2016. Última consulta del Ministerio de Ciencia e Innovación, Informe 30 de octubre de 2020, disponible en: https:// sobre datos e información en la epidemia CO- ec.europa.eu/research/participants/data/ref/ VID-19 y propuestas para la evolución digital h2020/grants_manual/hi/oa_pilot/h2020-hi-oa- del sistema de salud, octubre de 2020. data-mgt_en.pdf Revista Internacional de Pensamiento Político - I Época - Vol. 15 - 2020 - [139-166] - ISSN 1885-589X 149
dad. Los datos personales y, en particular, generan cajas negras que no permiten su los datos de salud, no pueden estar al al- inteligibilidad. Estas plantean retos para la cance de cualquiera. Por ello, existen no toma de decisiones sobre si aplicar aquella solo obligaciones jurídicas, sino también inteligencia o no y cómo podrá justificarse éticas y deontológicas para garantizar la el resultado cuando parte del proceso no más elevada protección44. puede explicarse, si bien el resultado final conduce a una decisión que genera más Los efectos que la monetización de la in- beneficios que riesgos46. formación personal y de la propia intimi- dad no se proyectan únicamente sobre in- Los algoritmos discriminan por razón de dividuos, sino también sobre sociedades raza o de género47. Los medios de comu- y democracias. La acumulación de datos nicación han revelado ejemplos de inicia- por defecto y sin fines determinados que tivas para desarrollar algoritmos que han define a la sociedad digital hace tamba- sido abandonadas porque las decisiones lear los principios de protección de datos resultantes, que pretendían mejorar las como la proporcionalidad y la minimiza- tomadas por los humanos, eran discrimi- ción del dato. Esta quiebra de los esque- natorias. El caso de la inteligencia artifi- mas tradicionales también ocurre en in- cial de Amazon para seleccionar al mejor vestigación, puesto que los presupuestos candidato fue sonado. Jeff Bezos, dueño sobre los que se asienta la evaluación de de la compañía, anunció que no ofrecería los proyectos no se cumplen. Se debe re- este servicio porque sistemáticamente el vertir esta tendencia a la acumulación y a algoritmo nunca priorizaba a una mujer la monetización de datos personales, que como candidata, aunque tuviera el mejor pueden llegar a considerarse como un ac- currículum48. tivo tóxico para entender lo que la econo- Los sesgos que incorpora la inteligencia mía digital representa para la intimidad45. artificial deben ser corregidos para que no se perpetúen, y para evitar la discri- 3. Sesgos y discriminación minación algorítmica49. Los sistemas de aprendizaje profundo, que pueden llegar algorítmica 46. Barcelona Declaration for the proper devel- En el desarrollo y aplicación de las tec- opment and usage of Artificial Intelligence in nologías el riesgo cero no existe, y como Europe Última consulta 30 de octubre de 2020, sociedad debemos determinar el umbral disponible en: https://www.iiia.csic.es/barce- de riesgo que estamos dispuestos a asu- lonadeclaration/ mir. Si bien esta es una cuestión obvia, se 47. O’Neil, C., Armas de destrucción matemáti- ca, Capitán Swing Libros, Madrid, 2018. torna compleja en el ámbito de las tecno- logías emergentes, puesto que determina- 48. Dastin, J., “Amazon abandona un proyecto de IA para la contratación por su sesgo sexista”, das aplicaciones de la inteligencia artificial Reuters, 14 de octubre de 2018, Última consulta 30 de octubre de 2020, disponible en: https:// 44. Martínez Montauti, J. La relación mé- fr.reuters.com/article/amazon-com-contratacion- dico-paciente, Edicions i publicacions de la ia-idESKCN1MO0M4 Universitat de Barcelona, Barcelona, 2018. 49. Baroni, M.J., “Las narrativas de la inteligen- 45. Véliz, C., Privacy is Power, Bantam Press, cia artificial”, Revista de Bioética y Derecho, Londres 2020. 2019, pp. 5-28. Última consulta 30 de octubre Revista Internacional de Pensamiento Político - I Época - Vol. 15 - 2020 - [139-166] - ISSN 1885-589X 150
a tomar decisiones por sí mismos, debe- (2019) que se acompaña de una meto- rían contar con datos de calidad y elimi- dología cimentada en la Carta Europea nar los sesgos. Tendrían además que ser de Derechos Fundamentales para que revisados y corregidos por el humano con las organizaciones públicas y privadas, carácter previo a su aplicación, pero tam- incluyendo también a la pequeña y me- bién durante su desarrollo. Los expertos diana empresa, puedan evaluar el estado en inteligencia artificial alertan que es ne- de la cuestión50. La estrategia europea cesario integrar los aspectos éticos desde se centra así en una inteligencia artificial el diseño de las intervenciones. Y convie- confiable51,centrada en el humano; fun- nen en que es crucial analizar el conjunto damentada en el respeto por los dere- de datos que nutre a los sistemas de in- chos humanos y los valores a respetar en teligencia artificial y limpiar aquellos datos Europa; y que debe seguir los principios antes de poner en marcha la intervención. de beneficencia y no maleficencia, el res- Recientemente, ingenieros, informáticos y peto por la autonomía de los humanos, científicos de los datos, entre otros per- la justicia y la explicabilidad. El Grupo de files técnicos, reclaman formación es- Expertos de Alto Nivel se refiere específi- pecífica en ética y en protección de los camente a las asimetrías que se pueden datos personales y que tradicionalmente generar en cuanto a la información de la no estaban contempladas en sus planes que puedan disponer los distintos actores docentes. Se trata de tomar decisiones como por empleadores y empleados etc., equitativas y determinar la responsabili- y reclama atención hacia aquellas situa- dad sobre el algoritmo. ciones que puedan comprometer los de- Es habitual caer en el error de que no 50. En la Unión Europea, el Grupo de Expertos existe suficiente normativa para tratar de Alto Nivel Sobre Inteligencia Artificial pu- los retos que plantea toda nueva tecno- blicó en abril de 2019 las Pautas para una In- logía desde la perspectiva ética, legal y teligencia Artificial confiable. que incluye una evaluación desde el enfoque de valores y respe- social. Para las tecnologías emergentes, to por los derechos humanos para el desarrollo como la inteligencia artificial y la analítica de aplicaciones de inteligencia artificial. Última de datos masivos, existe una regulación consulta 30 de octubre de 2020, disponible en: jurídica transversal sobre protección de https://ec.europa.eu/digital-single-market/en/ datos como es el Reglamento General de news/ethics-guidelines-trustworthy-ai Protección de Datos, que establece una 51. Comisión Europea, Communication to the serie de principios, derechos y garantías. commission. European Commission digital strat- En los últimos tiempos se han elaborado egy. A digitally transformed, user-focused and guías y pautas para este ámbito que de- data-driven Commission, Brussels, 21.11.2018 C(2018) 7118 final. Última consulta 30 de octubre ben ser analizadas y que aportan los re- de 2020, disponible en: https://ec.europa.eu/info/ ferentes sobre los que asentar la protec- sites/info/files/strategy/decision-making_pro- ción de las personas frente al uso de las cess/documents/ec_digitalstrategy_en.pdf y tecnologías emergentes y la utilización de Comisión Europea, White Paper on Artificial datos personales. En particular, conviene Intelligence: A European approach to excellence considerar la Guía del Grupo de Expertos and trust, Brussels, 19.2.2020 COM(2020) 65 de Alto Nivel sobre Inteligencia Artificial final. Última consulta 30 de octubre de 2020, disponible en: https://ec.europa.eu/info/sites/ de 2020, disponible en: https://revistes.ub.edu/ info/files/commission-white-paper-artificial-in- index.php/RBD/article/view/27280 telligence-feb2020_en.pdf Revista Internacional de Pensamiento Político - I Época - Vol. 15 - 2020 - [139-166] - ISSN 1885-589X 151
rechos de los colectivos y personas más desarrolladores, fabricantes y proveedores vulnerables por el uso de la inteligencia de servicios de inteligencia artificial se ase- artificial. guren de que sus aplicaciones no socavan la dignidad y los derechos humanos, es- Por su parte, el Consejo de Europa ha pecialmente al derecho a la intimidad y la efectuado aportaciones relativamente re- confidencialidad de los datos personales. cientes y del todo relevantes para la pro- tección de datos personales en cuanto al Según las Pautas, las aplicaciones de la tratamiento automatizado de datos y ante inteligencia artificial se refieren a sistemas la inteligencia artificial y el Big Data. El basados en inteligencia artificial, pero resultado es aplicable a otras tecnologías también a software y dispositivos que emergentes, como la biometría o la reali- aportan nuevas y valiosas soluciones para dad virtual, que también se utilizan en los dar respuesta a los retos de nuestro tiem- procesos de investigación e innovación en po en diversos campos. Un ejemplo es salud. La Guía para la protección de las el sector salud y el uso de sistemas pre- personas con respecto al tratamiento de dictivos como ya se ha visto. El Consejo datos de carácter personal en el mundo de Europa incide en que ante las conse- Big Data (2017)52 y la Guía sobre Inteli- cuencias que pueden tener las aplicacio- gencia Artificial y Protección de Datos nes de inteligencia artificial, la protección (2019)53, fueron elaboradas por el Comité de la dignidad humana y la salvaguardia Consultivo del Convenio para la protección de los derechos humanos y las libertades de las personas en relación con el proce- fundamentales deben preservarse. Situa- samiento de datos de carácter personal. ción especialmente relevante en el caso Interesa analizar aquí específicamente las de que la inteligencia artificial sirva como aportaciones sobre la vigilancia algorítmica herramienta de apoyo para para tomar precisamente para evitar discriminaciones, decisiones. Así, este desarrollo debe estar incluidas aquellas encubiertas por razón fundamentado en los principios de licitud, de los algoritmos. El objetivo del Consejo equidad, limitación del propósito, propor- de Europa es proporcionar un conjunto cionalidad, privacidad desde el diseño y de medidas para ayudar a que gobiernos, por defecto, responsabilidad, rendición de cuentas, transparencia, seguridad de 52. Consejo de Europa, Guidelines on Big Data los datos y gestión de riesgos. Se hace adopted by the Consultative Committee of the hincapié también en que la innovación Council of Europe´s data protection conven- responsable es necesaria en inteligencia tion (Convention for the Protection of Indi- artificial, no solo desde el punto de vista viduals with regard to Automatic Processing de los derechos individuales, sino también of Personal Data, also known as Convention 108), Estrasburgo, 2017. Última consulta 30 de teniendo en cuenta su posible impacto en octubre de 2020, disponible en: https://rm.coe.int/ valores éticos y sociales y en el funciona- CoERMPublicCommonSearchServices/Display miento de las democracias. Asimismo, DCTMContent?documentId=09000016806ebe7a las aplicaciones de inteligencia artificial 53. Consejo de Europa, Guidelines on Artificial deben permitir el control del tratamiento Intelligence and Data Protection, Estrasburgo, de los datos por parte de los interesados. 2019. Última consulta 30 de octubre de 2020, disponible en: https://www.coe.int/en/web/arti- En las orientaciones para desarrolladores, ficial-intelligence/-/new-guidelines-on-artificial- fabricantes y proveedores de servicios de intelligence-and-data-protection inteligencia artificial, se hace hincapié en Revista Internacional de Pensamiento Político - I Época - Vol. 15 - 2020 - [139-166] - ISSN 1885-589X 152
También puede leer