https://www.cedro.org/images/default-source/0baner/banner_conlicencia-com_ingles.gif?sfvrsn=b51c69a6_10
CEDRO
https://www.cedro.org/images/default-source/0baner/bannercastellanoblog.gif?sfvrsn=b01c69a6_12
CEDRO

Capítulo 9-1º | Chapter 9-1º

Estándares y seguridad en el uso humano de la IA | Standards and safety in the human use of AI


Fig. I A. 9.1.1- Atrévete a soñar en GRANDE: los estándares empoderan a los innovadores | Dare to dream BIG: Standards empower innovators. Crédito imag. (ISO). URL: https://youtu.be/N6ZLzzAZ_nQ


Ir al índice principal del libro Go to the main index of the book

Contenidos

Contents
9.1-1.- Introducción 9.1-1.- Introducction

9.1-2.- La estandarización como beneficio de la IA en las industrias

9.1-2.- Standardization as a benefit of AI in industries

9.1-3.- La certificación de la inteligencia artificial

9.1-3.- The certification of artificial intelligence


Autor / Author: Juan Antonio Lloret Egea |eu-ai-alliance-3_0.pngMiembro de la Alianza Europea para la IA / Member to the European AI Alliance | ORCID iD iconhttps://orcid.org/0000-0002-6634-3351|| Escrito / Writed: 20/10/2019. Actualizado / Updated: 06/11/2019 |

© 2019. Licencia de uso / License for use: [ Los estados de la inteligencia artificial (IA) | The states of artificial intelligence (AI) ] Creative Commons CC BY-NC-ND |ISSN 2695-3803 | Preprint DOI 10.13140/RG.2.2.26418.15045/1 |
9.1-1.- Introducción | Introduction

El campo de la ética y la legalidad en la inteligencia artificial ha surgido en gran medida como una respuesta a la gama de daños individuales y sociales que el mal uso, el abuso, el mal diseño o las consecuencias negativas no intencionadas de los sistemas de IA pueden causar, entre ellos:

Daños potenciales causados ​​por sistemas de IA, denegación de autonomía, recurso y derechos individuales, resultados no transparentes, inexplicables o injustificables, invasiones de la privacidad, aislamiento y desintegración de la conexión social y en resultados poco confiables, inseguros o de baja calidad. Estos resultados pueden dañar directamente el bienestar de las personas y el bienestar público. También pueden socavar la confianza en el uso responsable de las tecnologías de IA beneficiosas para la sociedad. Asimismo hemos de tener en consideración aspectos como el conjunto de regulaciones y leyes que sean de aplicación de acuerdo al ordenamiento jurídico y a las normas técnicas para el diseño y construcción y uso de los servicios y procesos resultantes. C9.1-1


[English]

The field of ethics and legality in artificial intelligence has largely emerged as a response to the range of individual and social damages that misuse, abuse, bad design or unintended negative consequences of AI systems they can cause, and among them:

Potential damages caused by AI systems, denial of autonomy, recourse and individual rights, non-transparent, unexplained or unjustifiable results, invasions of privacy, isolation and disintegration of the social connection and in unreliable, insecure or poor quality results . These results can directly harm people's well-being and public welfare. They can also undermine confidence in the responsible use of AI technologies beneficial to society. We must also take into consideration aspects such as the set of regulations and laws that are applicable according to the legal system and technical standards for the design and construction and use of the resulting services and processes C9.1-1.


En la actualidad casi todo lo relacionado con la Inteligencia Artificial o está en vías de desarrollo o en proyectos que tratan de buscar las soluciones más adecuadas canalizando y focalizando distintos ángulos y puntos de vista que son aportados por diferentes estamentos de la política, la empresa y la sociedad. Algunos de los argumentos más consolidados son las directrices marcadas por la UE; o por empresas más notables relacionadas con este campo, como IBM, Google o Microsoft. Al respecto en este libro hemos recopilado los siguientes contenidos en el capítulo 4:

  1. La ética de la inteligencia artificial.
  2. La ética de la IA en Europa.
  3. Economía y antirreglas de la ética.
  4. Sesgo racial en el procesamiento del lenguaje natural.
  5. Confianza en la IA empresarial.

[English]

Currently, almost everything related to Artificial Intelligence or is in the process of development or in projects that seek to find the most appropriate solutions by channeling and focusing different angles and points of view that are contributed by different levels of politics, business and the society. Some of the most consolidated arguments are the guidelines set by the EU; or by more notable companies related to this field, such as IBM, Google or Microsoft. In this regard, we have compiled the following contents in chapter 4:

  1. Ethics of Artificial Intelligence.
  2. The ethics of AI in Europe.
  3. Economy and anti-rules of ethics.
  4. Racial bias in natural language processing.
  5. Trust in business AI.

A lo que se añaden estándares técnicos para que el arco de posibilidades que propone la IA tenga un adecuado sustrato futuro de desarrollo. Algunos de ellos, los más notables, son:


Los creados o en desarrollo por el IEEE: de la familia de estándares P7000, grupo de trabajo de metodologías de ingeniería para asuntos éticos del ciclo de vida.


Alcance: el estándar establece un modelo de proceso mediante el cual los ingenieros y tecnólogos pueden abordar la consideración ética a lo largo de las diversas etapas de iniciación, análisis y diseño del sistema. Los requisitos esperados del proceso incluyen la visión de gestión e ingeniería del desarrollo de nuevos productos de TI, la ética informática y el diseño del sistema de TI, el diseño sensible al valor y la participación de los interesados en el diseño ético del sistema de TI.


[English]

To which technical standards are added so that the arc of possibilities proposed by AI has an adequate future development substrate. Some of them, the most notable, are:

Those created or under development by the IEEE: from the P7000 family of standards, a working group of engineering methodologies for ethical life cycle issues.

Scope: the standard establishes a process model through which engineers and technologists can address ethical consideration throughout the various stages of system initiation, analysis and design. The expected process requirements include the management and engineering vision of the development of new IT products, IT ethics and IT system design, value-sensitive design and stakeholder participation in the ethical design of the IT system.


Estandares-P7000.png


Fig. I A. 9.1.2- Familia de estándares P7000 | P7000 family of standards. Crédito imag. (Propia | Own). URL de origen: https://ethicsinaction.ieee.org/


P70XX: (01,02... 14)


  1. Transparencia de sistemas autónomos | Transparency of Autonomous Systems
  2. Proceso de privacidad de datos | Data Privacy Process 
  3. Consideraciones de sesgo algorítmico | Algorithmic Bias Considerations 
  4. Norma sobre gobierno de gatos de niños y estudiantes | Standard on Child and Student Data Governance 
  5. Norma sobre gobierno de datos del empleador | Standard on Employer Data Governance 
  6. Grupo de trabajo sobre el agente de AI de datos personales (estándar) | Standard on Personal Data AI Agent Working Group
  7. Norma ontológica para sistemas de automatización y robótica con ética | Ontological Standard for Ethically driven Robotics and Automation Systems
  8. Estándar para empujar éticamente sistemas robóticos, inteligentes y autónomos | Standard for Ethically Driven Nudging for Robotic, Intelligent and Autonomous Systems
  9. Norma para el diseño a prueba de fallos de sistemas autónomos y semiautónomos | Standard for Fail-Safe Design of Autonomous and Semi-Autonomous Systems
  10. Estándar de métricas de bienestar para inteligencia artificial ética y sistemas autónomos | Wellbeing Metrics Standard for Ethical Artificial Intelligence and Autonomous Systems
  11. Proceso de identificación y calificación de la confiabilidad de las fuentes de noticias | Process of Identifying and Rating the Trustworthiness of News Sources 
  12. Términos de privacidad personal legibles por máquina | Machine Readable Personal Privacy Terms
  13. Estándares para la tecnología de análisis facial automatizado | Standards for Automated Facial Analysis Technology 
  14. Norma para consideraciones éticas en la empatía emulada en sistemas autónomos e inteligentes | Standard for Ethical considerations in Emulated Empathy in Autonomous and Intelligent Systems

Los creados o en desarrollo por el subcomité ISO/IEC JTC1/SC42 (sin incluir aquí los relacionados con el Bigdata).


Este subcomité se estableció en noviembre de 2017 para abordar los requisitos específicos de estandarización de AI. El alcance de JTC1 / SC42 es servir como entidad de enfoque y proponente del programa de estandarización de JTC1 sobre IA, y proporcionar orientación a los comités JTC1, IEC e ISO que desarrollan aplicaciones relacionadas con AI. Los temas que forman parte del trabajo de este subcomité son: Estándares fundamentales, enfoques computacionales y características de IA, confiabilidad, casos de uso y aplicaciones, Big data y Preocupaciones sociales C9.1-2.


[English]

Those created or under development by subcommittee ISO/IEC JTC1/SC42 (not including those related to Bigdata here).

This subcommittee was established in November 2017 to address the specific requirements of AI standardization. The scope of JTC1 / SC42 is to serve as a focus entity and proponent of the JTC1 standardization program on AI, and provide guidance to JTC1, IEC and ISO committees that develop AI-related applications. The topics that are part of the work of this subcommittee are: Fundamental standards, computational approaches and characteristics of AI, reliability, use cases and applications, Big data and social concerns C9.1-2.


Inteligencia artificial conceptos y terminología Artificial intelligence — Concepts and terminology ISO/IEC WD 22989
Marco para sistemas de inteligencia artificial (IA) que utilizan el aprendizaje automático (ML) Framework for Artificial Intelligence (AI) Systems Using Machine Learning (ML) ISO/IEC WD 23053
Tecnología de la información Inteligencia artificial Gestión de riesgos Information Technology — Artificial Intelligence — Risk Management ISO/IEC AWI 23894
Tecnología de la información Inteligencia artificial (IA) Sesgo en los sistemas de IA y la toma de decisiones asistida por AI Information technology — Artificial Intelligence (AI) — Bias in AI systems and AI aided decision making ISO/IEC NP TR 24027
Tecnología de la información Inteligencia artificial (IA Descripción general de la confiabilidad en inteligencia artificial Information technology — Artificial Intelligence (AI — Overview of trustworthiness in Artificial Intelligence ISO/IEC PDTR 24028
Inteligencia artificial (IA) Evaluación de la robustez de las redes neuronales Parte 1: Descripción general Artificial Intelligence (AI) — Assessment of the robustness of neural networks — Part 1: Overview ISO/IEC NP TR 24029-1
Tecnología de la informaciónInteligencia artificial (IA) Casos de uso Information technology — Artificial Intelligence (AI) — Use cases ISO/IEC NP TR 24030
Tecnología de la información Inteligencia artificial Visión general de las preocupaciones éticas y sociales Information technology — Artificial intelligence — Overview of ethical and societal concerns ISO/IEC AWI TR 24368
Tecnología de la información Inteligencia artificial (IA) Descripción general de los enfoques computacionales para sistemas de IA Information technology — Artificial intelligence (AI) — Overview of computational approaches for AI systems ISO/IEC AWI TR 24372
Tecnología de la información Inteligencia artificial Marco de gestión de procesos para análisis de Big Data Information technology — Artificial intelligence —Process management framework for Big data analytics ISO/IEC AWI 24668
Tecnología de la información Gobernanza de TI - Implicaciones de gobernanza del uso de inteligencia artificial por parte de las organizaciones Information technology — Governance of IT — Governance implications of the use of artificial intelligence by organizations ISO/IEC AWI 38507

9.1-2.- La estandarización como beneficio de la IA en las industrias | Standardization as a benefit of AI in industries

Cómo la estandarización europea beneficia el despliegue de IA

La estandarización europea es un elemento esencial para evitar la fragmentación en el Mercado Único Digital y garantizar un enfoque centrado en las personas para la IA al garantizar que beneficie a la sociedad. Los estándares CEN y CENELEC crean un entorno de confianza y responsabilidad en torno al desarrollo y uso de la tecnología de inteligencia artificial, abordando problemas como la fiabilidad, la seguridad, la privacidad y la seguridad. Además, CEN y CENELEC tienen fuertes lazos con sus organismos internacionales de estandarización, la Organización Internacional de Normalización (ISO) y la Normalización Electrotécnica Internacional (IEC), donde el trabajo ya comenzó en IA en ISO / IEC JTC 1 SC 42 C9.1-3.


[English]

How European standardization benefits AI deployment

European standardization is an essential element to avoid fragmentation in the Digital Single Market and ensure a people-centered approach to AI by ensuring that it benefits society. The CEN and CENELEC standards create an environment of trust and responsibility around the development and use of artificial intelligence technology, addressing issues such as reliability, security, privacy and security. In addition, CEN and CENELEC have strong ties with their international standardization bodies, the International Organization for Standardization (ISO) and International Electrotechnical Standardization (IEC), where work has already begun in AI in ISO / IEC JTC 1 SC 42 C9.1-3 .



Fig. I A. 9.1.3- Ficha informativa sobre inteligencia artificial | Factsheet on artificial intelligence. Crédito imag. (Digital Single Market). URL: https://ec.europa.eu/digital-single-market/news-redirect/624272


A continuación extractamos y recogemos el whitepaper, Artificial intelligence across industries del IEC (International Electrotechnical Commission), en el que es notable su estudio sobre estándares en la sección 7, y sus conclusiones, sección 8.


El documento técnico fue desarrollado por la Junta de Estrategia de Mercado de IEC (MSB) con importantes contribuciones del Grupo Haier y el socio del proyecto del Centro de Investigación Alemán para la Inteligencia Artificial (DFKI). Los miembros del equipo de apoyo del proyecto incluyeron SAP, Huawei, NSW Data Analytics Center (DAC), China Electronic Standardization Institute (CESI), LG Electronics y Korea Electric Power Corporation (KEPCO)C9.1-2.


[English]


Next we extract and collect the white paper, Artificial intelligence across industries of the IEC (International Electrotechnical Commission), in which its study on standards in section 7, and its conclusions, section 8 is remarkable.

The technical document was developed by the IEC Market Strategy Board (MSB) with significant contributions from the Haier Group and the project partner of the German Research Center for Artificial Intelligence (DFKI). Project support team members included SAP, Huawei, NSW Data Analytics Center (DAC), China Electronic Standardization Institute (CESI), LG Electronics and Korea Electric Power Corporation (KEPCO) C9.1-2.