Gobernanza de la inteligencia artificial en la Unión Europea. La construcción de un marco ético-jurídico aún inacabado.

  1. Juan Carlos Hernández Peña
Revista:
Revista General de Derecho Administrativo

ISSN: 1696-9650

Ano de publicación: 2021

Número: 56

Tipo: Artigo

Outras publicacións en: Revista General de Derecho Administrativo

Resumo

Este trabajo da cuenta de la creación del marco de gobernanza de la inteligencia artificial en la Unión Europea, bajo un trinomio fundado en normas éticas, estandarización y regulación Hard-Law. Se abordan en un primer momento algunas iniciativas bottom-up y top-down que han influido en la respuesta comunitaria. Posteriormente se examina la novedosa política comunitaria de gobernanza de la inteligencia artificial, las incipientes estructuras de apoyo para la construcción de este marco, y se hace una valoración crítica de los tres instrumentos sobre los que se asienta la respuesta de la UE al reto de la IA: el marco ético dirigido a promover un estándar global; el proceso de normalización dirigido a facilitar el desarrollo técnico y promover un estándar elevado de protección de consumidores y usuarios; y, finalmente el inacabado marco normativo de Hard-Law, que exige una decidida intervención comunitaria para conjurar riesgos y garantizar el desarrollo armónico del mercado de datos y de la IA en Europa.

Referencias bibliográficas

  • ABBOT, K. y SNIDAL, D., “Hard and Soft Law in International Governance”, en International Organization, Num. 54(3), 2000, pp. 434-450.
  • Álvarez García, V., “La confirmación por parte del Tribunal de Justicia de la Unión Europea de la capacidad normativa de los sujetos privados y sus lagunas jurídicas (El asunto ‘James Elliot Construction Limited contra Irish Asphalt Limited’)”, en Revista General de Derecho administrativo, Núm. 46, Octubre, 2017, pp. 2-3.
  • Álvarez García, V., La normalización industrial, Tirant lo blanch, Valencia, 1999
  • Anderson, R. E., et al., “Using the New ACM Code of Ethics in Decision Making”, en Communications of the ACM, Núm. 36(2), 1993, pp. 98–107.
  • Asaro, P., “On banning autonomous weapon systems: Human rights, automation, and the dehumanization of lethal decision-making”, en International Review of the Red Cross, Núm. 94(886), 2012, pp. 687-709.
  • Boddington, P., Towards a Code of Ethics for Artificial Intelligence, Springer, Cham, 2017, pp. 104-105.
  • Boden, M. A., AI. It`s Nature and Future, Oxford University Press, Oxford, 2016, p. 2.
  • Boix Palop, A., “Los algoritmos son reglamentos: La necesidad de extender las garantías propias de las normas reglamentarias a los programas empleados por la administración para la adopción de decisiones“, en Revista de Derecho Público: Teoría y Método, Vol. 1, 2020, p. 227.
  • Bundesregierung, Strategie Künstliche Intelligenz, p. 38.
  • Canals Ametller, D., El proceso normativo ante el avance tecnológico y la transformación digital (inteligencia artificial, redes sociales y datos masivos)”, en Revista General de Derecho Administrativo, Núm. 50, enero, 2019, pp. 9 y ss.
  • Castro, D. y McLaughlin, M., Ten Ways the Precautionary Principle Undermines Progress in Artificial Intelligence, ITIF, 2019.
  • Cerrillo i Martínez, A., “El derecho para una inteligencia artificial centrada en el ser humano y al servicio de las instituciones”, Revista de Internet, Derecho y Política, Núm. 30, Marzo, 2020, p. 3.
  • Cerrillo i Martínez, A., “El impacto de la inteligencia artificial en el derecho administrativo ¿Nuevos conceptos para nuevas realidades técnicas?”, en Revista General de Derecho Administrativo, Núm. 50, 2019, p. 12
  • Cerrillo i Martínez, A., “How can we open the black box of public administration? Transparency and accountability in the use of algorithms”, en Revista Catalana de Dret Públic, Núm. 58, 2019, pp. 14 y ss.
  • Christof, K. “Dehumanization in organizational settings: Some scientific and ethical considerations”, en Frontiers in Human Neuroscience, septiembre, 2014.
  • Cihon, P. “Standards for AI Governance: International Standards to Enable Global Coordination in AI Research & Development”, Technical Report. Future of Humanity, University of Oxford, 2019.
  • Comisión Europea, Libro blanco sobre inteligencia artificial - Un enfoque europeo orientado hacia la excelencia y la confianza, COM(2020) 65 final, 19/02/20.
  • Commission Staff Working Document, “Evaluation of the Machinery Directive” SWD(2018) 161 final.
  • Commission Staff Working Document: Liability for emerging digital technologies, SWD (2018) 137 final, pp. 24-29.
  • Communication from the Commission to the European Parliament, the Council, the European Economic and Social Committee and the Committee of the Regions, Digitising European Industry. Reshaping the full benefits of a Digital Single Market, COM(2016) 180 final, de 19 de abril de 2016.
  • Comunicación “The principles of subsidiarity and proportionality: Strengthening their role in the EU's policymaking”, COM(2018) 703 final.
  • Comunicación de la Comisión “Completing a trusted Digital Single Market for all”, COM(2018) 320 final, de 15 de mayo de 2018.
  • Comunicación de la Comisión “ICT Standardisation Priorities for the Digital Single Market”, COM (2016) 176 final, p. 12-14.
  • Comunicación de la Comisión relativa a la revisión intermedia de la aplicación de la Estrategia para el Mercado Único Digital Un mercado único digital conectado para todos, COM(2017) 228 final, de 10 de mayo de 2017, p. 25-26.
  • Comunicación de la Comisión, de 25 de julio de 2001, <<La gobernanza europea - Un Libro Blanco>> COM (2001) 428final.
  • Comunicación de Sibiu, European Commission's contribution to the informal EU27 leaders' meeting in Sibiu, 9 de mayo de 2019, p. 31.
  • Cotino Hueso, L. “Ética en el diseño para el desarrollo de una inteligencia artificial, robótica y big data confiables y su utilidad desde el Derecho”, en Revista Catalana de Dret Públic, Núm. 58, 2019, p 36
  • Cotino Hueso, L., “Big data e inteligencia artificial. Una aproximación a su tratamiento jurídico desde los derechos fundamentales”, en Dilemata, Núm. 24, 2017, p. 136.
  • Cotino Hueso, L., “Riesgos e impactos del big data, la inteligencia artificial y la robótica. Enfoques, modelos y principios de la respuesta del derecho”, en Revista General de Derecho Administrativo, Núm. 50, enero, 2019, pp. 9-15.
  • Dalton-Brown, S., “The Ethics of Medical AI and the Physician-Patient Relationship”, en Cambridge Quarterly of Healthcare Ethics, Núm. 29(1), 2020, pp. 115-121.
  • Darnaculleta I Gardella, M. M., Autorregulación y Derecho público: La autorregulación regulada, Marcial Pons, Madrid, 2004
  • De La Sierra, Susana, “Inteligencia artificial y justicia administrativa: Una aproximación desde la teoría del control de la Administración Pública”, en Revista General de Derecho administrativo, Núm. 53, enero, 2020, pp. 4 y ss.
  • Delcker, J., “US to endorse new OECD principles on artificial intelligence”, Publico, 23 de mayo de 2019.
  • Directiva (UE) 2016/1148 del Parlamento Europeo y del Consejo, de 6 de julio de 2016, relativa a las medidas destinadas a garantizar un elevado nivel común de seguridad de las redes y sistemas de información en la Unión.
  • Directiva 2000/43/CE del Consejo, de 29 de junio de 2000, relativa a la aplicación del principio de igualdad de trato de las personas independientemente de su origen racial o étnico.
  • Eliantonio, M. “Judicial control of the EU harmonized standards: Entering a black hole?”, en Legal Issues of Economic Integration, 44(4), 2017, pp. 395-396.
  • Eliantonio, M. y Medzmariashvili, M., “Hybridity under scrutiny: How European standardization shakes the foundations of EU constitutional and internal market law”, en Legal Issues of Economic Integration, 44(4), 2017, pp. 323–324.
  • EPSC, “Study supporting the interim evaluation of the innovation principle. Final report”, pp. 39-40.
  • EPSC, “Towards an Innovation Principle Endorsed by Better Regulation”, 30 de junio de 2014.
  • Esteve Pardo, J., El desconcierto del Leviatán. Política y Derecho ante la incertidumbre de la ciencia, Marcial Pons, 2009.
  • European Group on Ethics in Science and New Technologies, Statement on Artificial Intelligence, Robotics and ‘Autonomous’ Systems, Comisión Europea, 2018, p. 13.
  • Floridi, L. y Cowls, J. “A Unified Framework of Five Principles for AI in Society”, en Harvard Data Science Review, Núm. 1(1), 2019, p. 5 y ss.
  • Fosh Villaronga, E., Towards a legal and ethical framework for personal care robots. Analysis of person carrier, physical assistant and mobile servant robots, 2017, disponible en: https://ddd.uab.cat/record/187696
  • Garnett, K., Van Calster, G. y Reins, L., “Towards an innovation principle: An industry trump or shortening the odds on environmental protection?’”, en Law, Innovation and Technology, Taylor & Francis, 10(1), 2018, pp. 1–2.
  • Goodfellow, I. J., Shlens, J. y Szegedy, C., “Explaining and harnessing adversarial examples”, en 3rd International Conference on Learning Representations, ICLR 2015 - Conference Track Proceedings, 2015, pp. 1-11.
  • Green, D., et. al, “Better, Nicer, Cleaner, Fairer: A Critical Assessment of the Movement for Ethical Artificial Intelligence and Machine Learning”, en Proceeding of the 52nd HICSS, 2019, p. 2123-2124.
  • Grupo de Expertos sobre Responsabilidad y Nuevas Tecnologías, Expert Group on Liability and New Technologies – New Technologies Formation, “Liability for Artificial Intelligence and other emerging digital technologies”, Comisión Europea, 2019.
  • Guillory, J. E. et al., “Experimental evidence of massive scale emotional contagion through social networks”, en Proceedings of the National Academy of Sciences, Núm. 111(29), 2014, pp.8788–8790.
  • Hagendorff, T., “The Ethics of AI Ethics: An Evaluation of Guidelines”, en Minds and Machines, Núm. 20, 2020, p. 1
  • Hernández P., J.C., Decisiones algorítmicas de perfilado: régimen y garantías jurídicas, REDA, núm. 203, 2020, p. 281 y ss.
  • Hernández Peña, J.C. Campañas electorales big data y perfilado ideológico. aproximación a su problemática desde el derecho fundamental a la protección de datos, 2020 (en proceso de revisión).
  • Hernández Peña, J.C., “Human Rights and Technological Discrimination: The Role of Human Dignity in the Case of Algorithmic Discrimation”, en Dybowski, M. Y García Pérez, R.D., Globalization of Law. The Role of Human Dignity, Thomson Reuters Aranzadi, Cizur Menor, 2018. pp. 213 y ss.
  • Hernández Peña, J.C., “Inteligencia artificial y machine learning en el sector financiero. Experiencias y algunos problemas regulatorios del SupTech”, en RGDSR, núm. 5, 2020, pp. 2-17.
  • informe del European Parliamentary Research Service, “Cost of non Europe in robotics and artificial intelligence. Liability, insurance and risk management”, 2019, pp. 35 y ss.,
  • Jabłonowska, A., et al., “Consumer Law and artificial intelligence challenges to the EU consumer law and policy stemming from the business’ use of artificial intelligence”, EUI Working Papers, 2011.
  • Jagielski, M. et al, "Manipulating Machine Learning: Poisoning Attacks and Countermeasures for Regression Learning," en 2018 IEEE Symposium on Security and Privacy (SP), 2018, pp. 19-35.
  • Joint Research Centre, Artificial Intelligence. A European perspective, 2018, pp. 45 y ss.
  • Liu, Yingqi, et al., "Trojaning Attack on Neural Networks" (2017), Purdue University, Department of Computer Science Technical Reports, Paper 1781, pp. 1-15.
  • Marcussen, M., “The Organization for Economic Cooperation and Development as ideational artist and arbitrator”, en Reinalda, B. y Verbeej, V. (Edit.), Decision Making Within International Organisations, Routledge, Londres, 2004, pp. 90 y ss.
  • Martens, K. y Jakobi, A., “Introduction: The OECD as an Actor in International Politics”, en Martens, K. y Jakobi, A. (Edit.), Mechanisms of OECD Governance International Incentives for National Policy-Making?, Oxford, Nueva York, 2010, pp. 1-25
  • McNamara, A., et al., “Does ACM’s code of ethics change ethical decision making in software development?”, en ESEC/FSE 2018 - Proceedings of the 2018 26th ACM Joint Meeting on European Software Engineering Conference and Symposium on the Foundations of Software Engineering, 2018, pp. 729 y ss.
  • Miailhe, N., et. al, Geopolítica de la inteligencia artificial, en Política Exterior, Vol. 34, Núm. 193, 2020, pp. 56 y ss.
  • Mittelstadt, B., “Principles alone cannot guarantee ethical AI”, en Nature Machine Intelligence, Springer US, Núm. 1(11), 2019, pp. 501 y ss.
  • Mohr, A., et. al, “Mapping the role of official bioethics advice in the governance of biotechnologies in the EU: The European Group on Ethics’ Opinion on commercial cord blood banking”, en Science and Public Policy, Vol. 39, núm. 1, 2012, P. 105 y ss.
  • Moles I Plaza, R., Derecho y calidad. El régimen jurídico de la normalización técnica, Ariel, Barcelona, 2001
  • Moosavi-Dezfooli, S. M., Fawzi, A. y Frossard, P. “DeepFool: A Simple and Accurate Method to Fool Deep Neural Networks’” en Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2016, pp. 2574-2582
  • OCDE, “Scoping the OEDC AI Principles. Deliberations of the Expert Group On Artificial Intelligence at the OEDC (AIGO)”, OECD Digital Economy Papers, noviembre 2019, No. 291, p. 21.
  • OECD, Artificial Intelligence in Society, OECD Publishing, Paris, 2019, p. 122-124.
  • Organización Europea de Consumidores “Precautionary principle under attack: please delete so-called ‘Innovation Principle’ from Horizon Europe research funding programme” Ref.: BEUC-X-2018-112, de 6 de diciembre de 2018)
  • Pasquale, F. The Black Box Society. The Secret Algorithms that Control Money and Information. Harvard University Press, Cambridge, 2015
  • Piñar Mañas, J. L., “Inteligencia artificial: técnica, ética y derecho”, en Escritura Pública, Núm. 118, 2019, p.41
  • Poggio, T., Liao, Q. y Banburski, A. “Complexity control by gradient descent in deep networks”, en Nature Communication, Núm. 11(1027), 2020.
  • PONCE SOLÉ, J., “El Derecho administrativo del Siglo XXI”, en Revista General de Derecho administrativo, Núm. 52, octubre, 2019, pp. 18 y ss.
  • Ponce Solé, J., “Inteligencia artificial, derecho administrativo y reserva de humanidad: Algoritmos y procedimiento administrativo debido tecnológico”, en Revista General de Derecho Administrativo, Núm. 50, 2019, pp. 26 y ss.
  • Real Decreto-ley 12/2018, de 7 de septiembre, de seguridad de las redes y sistemas de información.
  • Russell, S. y Norvig, P. Artificial Intelligence. A Modern Approach, Pearson, tercera edición, Essex, 2016, p. 1-2, r
  • Sancho López, M., “Estrategias legales para garantizar los derechos fundamentales frente a los desafíos del Big Data”, en Revista General de Derecho Administrativo, Núm. 50, 2019, pp. 22 y ss.
  • Sarasibar, M., “La Cuarta Revolución Industrial: El Derecho Administrativo ante la inteligencia artificial”, en Revista Vasca de Administración Pública, núm. 115, septiembre-diciembre, 2019, pp. 383-386.
  • Schapel, H., ‘The New Approach to the New Approach: The Juridification of Harmonized Standards in EU Law’, en Maastricht Journal of European and Comparative Law, Núm. 20(4), 2013, p. 521.
  • Schepel, H., The Constitution of Private Governance: Product Standards in the Regulation of Integrating Markets, Hart, Portland, 2005.
  • Tarres Vives, M. Normas técnicas y ordenamiento jurídico, Tirant lo blanch, Valencia, 2003
  • Veale, M. “A Critical Take on the Policy Recommendations of the EU High-Level Expert Group on Artificial Intelligence”, en European Journal of Risk Regulation, 2020, Preprint disponible en: https://osf.io/preprints/lawarxiv/dvx4f/
  • Vergara Calle, O., Método y razón práctica en la ética biomédica, Comares, Granada, 2018, pp. 7 y ss.
  • Von der Leyen. “A Union that strives for more: My agenda for Europe”, p.13.
  • Whittaker, M. et al., “Disability, Bias, and AI”, AI Now, 2019.
  • Zuiderveen Borgesius, F., “Discrimination, artificial intelligence, and algorithmic decision-making”, Council of Europe, Directorate General of Democracy, 2018, pp. 18-20.