https://www.cedro.org/images/default-source/0baner/banner_conlicencia-com_ingles.gif?sfvrsn=b51c69a6_10
CEDRO
https://www.cedro.org/images/default-source/0baner/bannercastellanoblog.gif?sfvrsn=b01c69a6_12
CEDRO

4.5.4º


4.5.4º.- IA confiable de IBM | IBM Reliable AI


Fig. I A. C4.5.4-1. Tutorial AI Fairness 360 en ACM FAT * 2019, Parte 1 & (2ª Part) | AI Fairness 360 Tutorial at ACM FAT* 2019, Part 1 & (Part 2). Crédito imág (). URL: https://youtu.be/XCFDckvyC0M


Ir al índice principal del libro Go to the main index of the book

Contenidos

 

Contents

4.5.1º.- Introducción a la IA empresarial

4.5.1º.- Introduction to business AI

4.5.2º.- IA confiable de Google

4.5.2º.- Google Reliable AI

4.5.3º.- IA confiable de Microsoft

4.5.3º.- Microsoft Reliable AI

4.5.4º.- IA confiable de IBM

4.5.4º.- IBM Reliable AI

4.5.5º.- IA confiable de IEEE

4.5.5º.-  IEEE Reliable AI


Autor / Author: Juan Antonio Lloret Egea |eu-ai-alliance-3_0.pngMiembro de la Alianza Europea para la IA / Member to the European AI Alliance | ORCID iD iconhttps://orcid.org/0000-0002-6634-3351|| Escrito / Writed: 05/09/2019. Actualizado / Updated: 26/01/2020|

© 2019. Licencia de uso / License for use: [ Los estados de la inteligencia artificial (IA) | The states of artificial intelligence (AI) ] Creative Commons CC BY-NC-ND |ISSN 2695-3803 |Preprint DOI10.13140/RG.2.2.11525.09445|

Manifiesto de IBM con motivo del 50 encuentro en el foro de Davos. 'Regulación de precisión para la inteligencia artificial' | IBM Manifesto on the occasion of the 50th meeting in the Davos forum. 'Precision Regulation for Artificial Intelligence'



DAVOS, Suiza, 22 de enero de 2020 | DAVOS, SwitzerlandJan. 22, 2020

4.5.4.1.- IBM sus políticas de IA confiable | IBM its reliable AI policies

IBM parece estar muy bien posicionada en la estrategia de una IA confiable frente a entidades como Google o Microsoft. Vamos a analizar cómo gestiona IBM esto.

Los principios de confianza y transparencia de IBM están centrados en las webs 'Trusted AI for Business' y en  'Trusting AI'.

La explicabilidad (para evitar la caja negra opaca que ofrece a los usuarios escasa visibilidad sobre los datos, procesos y lógica subyacentes que conducen a las decisiones del sistema) trata, entre otros, de enfocarla mediante OpenScale (Watson). Además ha desarrollado un compedio de documentación o publicaciones.



Fig. I A. C4.5.4-2. Conozca las características clave, los beneficios y los casos de uso de Watson OpenScale | Learn about the key features, benefits and use cases of Watson OpenScale. Crédito imág (). URL: https://youtu.be/JVxTQnRiAsc


IBM ha puesto a disposición de la comunidad de código abierto un conjunto de herramientas llamado "AI Fairness 360" para ayudar a los desarrolladores y científicos de datos a verificar y mitigar el sesgo en los modelos de IA utilizando soluciones de manejo de sesgos, y apoyándolos con pautas, conjuntos de datos, tutoriales, métricas y algoritmos. (Conciencia de sesgo y mitigación) C4.5.4-1.


[English]

IBM seems to be very well positioned in the strategy of a reliable AI against entities such as Google or Microsoft. We will analyze how IBM manages this.

IBM's principles of trust and transparency are focused on 'Trusted AI for Business' and on 'Trusting AI'.

The explainability (to avoid the opaque black box, which offers users poor visibility on the underlying data, processes and logic that lead to system decisions), among others, tries to focus it through OpenScale (Watson). He has also developed a compendium of documentation or publications.

IBM has made a set of tools called "AI Fairness 360" available to the open source community to help developers and data scientists verify and mitigate bias in AI models using bias management solutions, and supporting them with guidelines, data sets, tutorials, metrics and algorithms. (Bias Awareness and Mitigation) C4.5.4-1.


AI Fairness 360


RESUMEN. La equidad es una preocupación cada vez más importante, ya que los modelos de aprendizaje automático se utilizan para apoyar la toma de decisiones en aplicaciones de alto riesgo, como préstamos hipotecarios, contratación y sentencias de prisión. Este documento presenta un nuevo kit de herramientas Python de código abierto para la equidad algorítmica, AI Fairness 360 (AIF360), publicado bajo una licencia Apache v2.0 (https://github.com/ibm/aif360). Los objetivos principales de este conjunto de herramientas son ayudar a facilitar la transición de los algoritmos de investigación de equidad para usar en un entorno industrial y proporcionar un marco común para que los investigadores de equidad compartan y evalúen algoritmos. El paquete incluye un conjunto integral de métricas de equidad para conjuntos de datos y modelos, explicaciones para estas métricas y algoritmos para mitigar el sesgo en conjuntos de datos y modelos. También incluye una experiencia web interactiva (https://aif360.mybluemix.net) que proporciona una introducción suave a los conceptos y capacidades para los usuarios de la línea de negocios, así como una amplia documentación, orientación de uso y tutoriales específicos de la industria para habilitar científicos de datos y profesionales para incorporar la herramienta más adecuada para su problema en sus productos de trabajo. La arquitectura del paquete ha sido diseñada para ajustarse a un paradigma estándar utilizado en ciencia de datos, mejorando así la usabilidad para los profesionales. Tal diseño arquitectónico y abstracciones permiten a los investigadores y desarrolladores ampliar el kit de herramientas con sus nuevos algoritmos y mejoras, y usarlo para la evaluación comparativa del rendimiento. Una infraestructura de prueba incorporada mantiene la calidad del código.


[English]

ABSTRACT. Fairness is an increasingly important concern as machine learning models are used to support decision makingin high-stakes applications such as mortgage lending, hiring, and prison sentencing. This paper introduces a newopen source Python toolkit for algorithmic fairness, AI Fairness 360 (AIF360), released under an Apache v2.0license (https://github.com/ibm/aif360 ). The main objectives of this toolkit are to help facilitate thetransition of fairness research algorithms to use in an industrial setting and to provide a common framework forfairness researchers to share and evaluate algorithms.The package includes a comprehensive set of fairness metrics for datasets and models, explanations for thesemetrics, and algorithms to mitigate bias in datasets and models. It also includes an interactive Web experience(https://aif360.mybluemix.net) that provides a gentle introduction to the concepts and capabilitiesfor line-of-business users, as well as extensive documentation, usage guidance, and industry-specific tutorials toenable data scientists and practitioners to incorporate the most appropriate tool for their problem into their workproducts. The architecture of the package has been engineered to conform to a standard paradigm used in datascience, thereby further improving usability for practitioners. Such architectural design and abstractions enableresearchers and developers to extend the toolkit with their new algorithms and improvements, and to use it forperformance benchmarking. A built-in testing infrastructure maintains code quality.


 


Fig. I A. C4.5.4-3. AI FAIRNESS 360: UN JUEGO DE HERRAMIENTAS EXTENSIBLE PARA DETECTAR, ENTENDER Y MITIGAR EL BIAS ALGORITMICO NO DESEADO | AI FAIRNESS 360: AN EXTENSIBLE TOOLKIT FOR DETECTING, UNDERSTANDING, AND MITIGATING UNWANTED ALGORITHMIC BIAS. Crédito imág (). URL: https://www.ibm.com/watson/assets/duo/pdf/everydayethics.pdf


IBM ha propuesto la idea de una "hoja informativa de IA" donde los desarrolladores deben registrar todas las decisiones de diseño y las propiedades de rendimiento del sistema de IA desarrollado, desde los algoritmos de manejo de sesgos hasta los conjuntos de datos de capacitación y las herramientas explicables, etc. IBM argumenta que una Declaración de conformidad del proveedor (SDoC, u hoja de datos, para abreviar) debe ser completada y publicada voluntariamente por los desarrolladores y proveedores de servicios de inteligencia artificial para aumentar la transparencia de sus servicios y generar confianza en ellos (Para confiar en los productos de IA).


[English]

IBM has proposed the idea of an "AI fact sheet" where developers should record all design decisions and performance properties of the AI system developed, from bias management algorithms to training data sets and explainable tools, etc. IBM argues that a Supplier Declaration of Conformity (SDoC, or fact sheet, for short) must be completed and voluntarily published by developers and providers of artificial intelligence services to increase the transparency of their services and build trust in them (To trust AI products).


Hojas informativas: Aumento de la confianza en los servicios de inteligencia artificial a través de las declaraciones de conformidad del proveedor | FactSheets: Increasing Trust in AI Servicesthrough Supplier’s Declarations of Conformity



Fig. I A. C4.5.4-4.  Hojas informativas | FactSheets. Crédito imág (). URL: https://arxiv.org/pdf/1808.07261.pdf


Además, para ayudar a los desarrolladores y diseñadores a pensar sobre estos temas, IBM ha lanzado un folleto, llamado "Ética cotidiana para la inteligencia artificial", para sensibilizar a los desarrolladores y diseñadores sobre estos temas y ayudarlos a pensar y encontrar soluciones para capacidades relacionadas con la confianza en su trabajo diario. 


[English]

In addition, to help developers and designers think about these issues, IBM has launched a booklet, called "Everyday Ethics for Artificial Intelligence," to raise awareness among developers and designers about these issues and help them think and find solutions for capabilities. related to trust in your daily work.



Fig. I A. C4.5.4-5. Ética cotidiana para la Inteligencia Artificial. Everyday Ethics for Artificial Intelligence. URL: https://www.ibm.com/watson/assets/duo/pdf/everydayethics.pdf


Trusting-AI---IBM-Research-AI.png


Fig. I A. C4.5.4-6. Plataforma Trusting AI | AI Trusting Platform. https://www.research.ibm.com/artificial-intelligence/trusted-ai/


A medida que la IA avanza, y los humanos y los sistemas de IA trabajan cada vez más juntos, es esencial que confiemos en la salida de estos sistemas para informar nuestras decisiones. Junto con las consideraciones de política y los esfuerzos comerciales, la ciencia tiene un papel central que desempeñar: desarrollar y aplicar herramientas para conectar los sistemas de inteligencia artificial para la confianza. La estrategia integral de IBM Research aborda múltiples dimensiones de confianza para permitir soluciones de IA que inspiren confianza. En esta plataforma IBM identifica 5 principios:

  1. Justicia
  2. Alineación de valor
  3. Robustez
  4. Explicabilidad
  5. Transparencia y responsabilidad

[English]

As AI advances, and humans and AI systems increasingly work together, it is essential that we trust the output of these systems to inform our decisions. Alongside policy considerations and business efforts, science has a central role to play: developing and applying tools to wire AI systems for trust. IBM Research’s comprehensive strategy addresses multiple dimensions of trust to enable AI solutions that inspire confidence. On this platform IBM identifies 5 principles:

  1. Fairness

Y casi como un paso intermedio (entre la investigación y las empresas) IBM nos propone desde el Institute for Business Value el documento:  "Cambio hacia la IA de grado empresarial: resolución de brechas de datos y habilidades para obtener valor" (IBM, 2018). | And almost as an intermediate step (between research and business) IBM promises us from the Institute for Business Value the document: "Change towards business-grade AI: solving data gaps and skills to obtain value" (IBM, 2018 ).


Fig. I A. C4.5.4-7.  URL: https://www-935.ibm.com/services/us/gbs/thoughtleadership/Enterpriseai/ 


Para finalmente adentrarnos en su plataforma de negocios y exponernos sus principios de confianza sobre ellos. Básicamente fundada sobre Watson, que es un nucleo muy importante de negocio de IBM (conjuntamente con otras áreas como la de ciberseguridad, QRadar).


[English]

To finally get into your business platform and expose your principles of trust about them. Basically founded on Watson, which is a very important core of IBM's business (together with other areas such as cybersecurity, QRadar).