4.5.4º
4.5.4º.- IA confiable de IBM | IBM Reliable AI
Fig. I A. C4.5.4-1. Tutorial AI Fairness 360 en ACM FAT * 2019, Parte 1 & (2ª Part) | AI Fairness 360 Tutorial at ACM FAT* 2019, Part 1 & (Part 2). Crédito imág (). URL: https://youtu.be/XCFDckvyC0M
⇦ Ir al índice principal del libro | ⇦ Go to the main index of the book |
Contenidos
|
Contents
|
4.5.1º.- Introducción a la IA empresarial |
4.5.1º.- Introduction to business AI |
4.5.2º.- IA confiable de Google |
4.5.2º.- Google Reliable AI |
4.5.3º.- IA confiable de Microsoft |
4.5.3º.- Microsoft Reliable AI |
4.5.4º.- IA confiable de IBM |
4.5.4º.- IBM Reliable AI |
4.5.5º.- IA confiable de IEEE |
4.5.5º.- IEEE Reliable AI |
© 2019. Licencia de uso / License for use: [ Los estados de la inteligencia artificial (IA) | The states of artificial intelligence (AI) ] Creative Commons CC BY-NC-ND |ISSN 2695-3803 |Preprint DOI10.13140/RG.2.2.11525.09445| |
Manifiesto de IBM con motivo del 50 encuentro en el foro de Davos. 'Regulación de precisión para la inteligencia artificial' | IBM Manifesto on the occasion of the 50th meeting in the Davos forum. 'Precision Regulation for Artificial Intelligence'
DAVOS, Suiza, 22 de enero de 2020 | DAVOS, Switzerland, Jan. 22, 2020
4.5.4.1.- IBM sus políticas de IA confiable | IBM its reliable AI policies
IBM parece estar muy bien posicionada en la estrategia de una IA confiable frente a entidades como Google o Microsoft. Vamos a analizar cómo gestiona IBM esto.
Los principios de confianza y transparencia de IBM están centrados en las webs 'Trusted AI for Business' y en 'Trusting AI'.
La explicabilidad (para evitar la caja negra opaca que ofrece a los usuarios escasa visibilidad sobre los datos, procesos y lógica subyacentes que conducen a las decisiones del sistema) trata, entre otros, de enfocarla mediante OpenScale (Watson). Además ha desarrollado un compedio de documentación o publicaciones.
Fig. I A. C4.5.4-2. Conozca las características clave, los beneficios y los casos de uso de Watson OpenScale | Learn about the key features, benefits and use cases of Watson OpenScale. Crédito imág (). URL: https://youtu.be/JVxTQnRiAsc
IBM ha puesto a disposición de la comunidad de código abierto un conjunto de herramientas llamado "AI Fairness 360" para ayudar a los desarrolladores y científicos de datos a verificar y mitigar el sesgo en los modelos de IA utilizando soluciones de manejo de sesgos, y apoyándolos con pautas, conjuntos de datos, tutoriales, métricas y algoritmos. (Conciencia de sesgo y mitigación) C4.5.4-1.
[English]
IBM seems to be very well positioned in the strategy of a reliable AI against entities such as Google or Microsoft. We will analyze how IBM manages this.
IBM's principles of trust and transparency are focused on 'Trusted AI for Business' and on 'Trusting AI'.
The explainability (to avoid the opaque black box, which offers users poor visibility on the underlying data, processes and logic that lead to system decisions), among others, tries to focus it through OpenScale (Watson). He has also developed a compendium of documentation or publications.
IBM has made a set of tools called "AI Fairness 360" available to the open source community to help developers and data scientists verify and mitigate bias in AI models using bias management solutions, and supporting them with guidelines, data sets, tutorials, metrics and algorithms. (Bias Awareness and Mitigation) C4.5.4-1.
AI Fairness 360
RESUMEN. La equidad es una preocupación cada vez más importante, ya que los modelos de aprendizaje automático se utilizan para apoyar la toma de decisiones en aplicaciones de alto riesgo, como préstamos hipotecarios, contratación y sentencias de prisión. Este documento presenta un nuevo kit de herramientas Python de código abierto para la equidad algorítmica, AI Fairness 360 (AIF360), publicado bajo una licencia Apache v2.0 (https://github.com/ibm/aif360). Los objetivos principales de este conjunto de herramientas son ayudar a facilitar la transición de los algoritmos de investigación de equidad para usar en un entorno industrial y proporcionar un marco común para que los investigadores de equidad compartan y evalúen algoritmos. El paquete incluye un conjunto integral de métricas de equidad para conjuntos de datos y modelos, explicaciones para estas métricas y algoritmos para mitigar el sesgo en conjuntos de datos y modelos. También incluye una experiencia web interactiva (https://aif360.mybluemix.net) que proporciona una introducción suave a los conceptos y capacidades para los usuarios de la línea de negocios, así como una amplia documentación, orientación de uso y tutoriales específicos de la industria para habilitar científicos de datos y profesionales para incorporar la herramienta más adecuada para su problema en sus productos de trabajo. La arquitectura del paquete ha sido diseñada para ajustarse a un paradigma estándar utilizado en ciencia de datos, mejorando así la usabilidad para los profesionales. Tal diseño arquitectónico y abstracciones permiten a los investigadores y desarrolladores ampliar el kit de herramientas con sus nuevos algoritmos y mejoras, y usarlo para la evaluación comparativa del rendimiento. Una infraestructura de prueba incorporada mantiene la calidad del código.
[English]
ABSTRACT. Fairness is an increasingly important concern as machine learning models are used to support decision makingin high-stakes applications such as mortgage lending, hiring, and prison sentencing. This paper introduces a newopen source Python toolkit for algorithmic fairness, AI Fairness 360 (AIF360), released under an Apache v2.0license (https://github.com/ibm/aif360 ). The main objectives of this toolkit are to help facilitate thetransition of fairness research algorithms to use in an industrial setting and to provide a common framework forfairness researchers to share and evaluate algorithms.The package includes a comprehensive set of fairness metrics for datasets and models, explanations for thesemetrics, and algorithms to mitigate bias in datasets and models. It also includes an interactive Web experience(https://aif360.mybluemix.net) that provides a gentle introduction to the concepts and capabilitiesfor line-of-business users, as well as extensive documentation, usage guidance, and industry-specific tutorials toenable data scientists and practitioners to incorporate the most appropriate tool for their problem into their workproducts. The architecture of the package has been engineered to conform to a standard paradigm used in datascience, thereby further improving usability for practitioners. Such architectural design and abstractions enableresearchers and developers to extend the toolkit with their new algorithms and improvements, and to use it forperformance benchmarking. A built-in testing infrastructure maintains code quality.
Fig. I A. C4.5.4-3. AI FAIRNESS 360: UN JUEGO DE HERRAMIENTAS EXTENSIBLE PARA DETECTAR, ENTENDER Y MITIGAR EL BIAS ALGORITMICO NO DESEADO | AI FAIRNESS 360: AN EXTENSIBLE TOOLKIT FOR DETECTING, UNDERSTANDING, AND MITIGATING UNWANTED ALGORITHMIC BIAS. Crédito imág (). URL: https://www.ibm.com/watson/assets/duo/pdf/everydayethics.pdf
IBM ha propuesto la idea de una "hoja informativa de IA" donde los desarrolladores deben registrar todas las decisiones de diseño y las propiedades de rendimiento del sistema de IA desarrollado, desde los algoritmos de manejo de sesgos hasta los conjuntos de datos de capacitación y las herramientas explicables, etc. IBM argumenta que una Declaración de conformidad del proveedor (SDoC, u hoja de datos, para abreviar) debe ser completada y publicada voluntariamente por los desarrolladores y proveedores de servicios de inteligencia artificial para aumentar la transparencia de sus servicios y generar confianza en ellos (Para confiar en los productos de IA).
[English]
IBM has proposed the idea of an "AI fact sheet" where developers should record all design decisions and performance properties of the AI system developed, from bias management algorithms to training data sets and explainable tools, etc. IBM argues that a Supplier Declaration of Conformity (SDoC, or fact sheet, for short) must be completed and voluntarily published by developers and providers of artificial intelligence services to increase the transparency of their services and build trust in them (To trust AI products).
Hojas informativas: Aumento de la confianza en los servicios de inteligencia artificial a través de las declaraciones de conformidad del proveedor | FactSheets: Increasing Trust in AI Servicesthrough Supplier’s Declarations of Conformity
Fig. I A. C4.5.4-4. Hojas informativas | FactSheets. Crédito imág (). URL: https://arxiv.org/pdf/1808.07261.pdf
Además, para ayudar a los desarrolladores y diseñadores a pensar sobre estos temas, IBM ha lanzado un folleto, llamado "Ética cotidiana para la inteligencia artificial", para sensibilizar a los desarrolladores y diseñadores sobre estos temas y ayudarlos a pensar y encontrar soluciones para capacidades relacionadas con la confianza en su trabajo diario.
[English]
In addition, to help developers and designers think about these issues, IBM has launched a booklet, called "Everyday Ethics for Artificial Intelligence," to raise awareness among developers and designers about these issues and help them think and find solutions for capabilities. related to trust in your daily work.
Fig. I A. C4.5.4-5. Ética cotidiana para la Inteligencia Artificial. Everyday Ethics for Artificial Intelligence. URL: https://www.ibm.com/watson/assets/duo/pdf/everydayethics.pdf
Fig. I A. C4.5.4-6. Plataforma Trusting AI | AI Trusting Platform. https://www.research.ibm.com/artificial-intelligence/trusted-ai/
A medida que la IA avanza, y los humanos y los sistemas de IA trabajan cada vez más juntos, es esencial que confiemos en la salida de estos sistemas para informar nuestras decisiones. Junto con las consideraciones de política y los esfuerzos comerciales, la ciencia tiene un papel central que desempeñar: desarrollar y aplicar herramientas para conectar los sistemas de inteligencia artificial para la confianza. La estrategia integral de IBM Research aborda múltiples dimensiones de confianza para permitir soluciones de IA que inspiren confianza. En esta plataforma IBM identifica 5 principios:
- Justicia
- Alineación de valor
- Robustez
- Explicabilidad
- Transparencia y responsabilidad
[English]
As AI advances, and humans and AI systems increasingly work together, it is essential that we trust the output of these systems to inform our decisions. Alongside policy considerations and business efforts, science has a central role to play: developing and applying tools to wire AI systems for trust. IBM Research’s comprehensive strategy addresses multiple dimensions of trust to enable AI solutions that inspire confidence. On this platform IBM identifies 5 principles:
Y casi como un paso intermedio (entre la investigación y las empresas) IBM nos propone desde el Institute for Business Value el documento: "Cambio hacia la IA de grado empresarial: resolución de brechas de datos y habilidades para obtener valor" (IBM, 2018). | And almost as an intermediate step (between research and business) IBM promises us from the Institute for Business Value the document: "Change towards business-grade AI: solving data gaps and skills to obtain value" (IBM, 2018 ).
Fig. I A. C4.5.4-7. URL: https://www-935.ibm.com/services/us/gbs/thoughtleadership/Enterpriseai/
Para finalmente adentrarnos en su plataforma de negocios y exponernos sus principios de confianza sobre ellos. Básicamente fundada sobre Watson, que es un nucleo muy importante de negocio de IBM (conjuntamente con otras áreas como la de ciberseguridad, QRadar).
[English]
To finally get into your business platform and expose your principles of trust about them. Basically founded on Watson, which is a very important core of IBM's business (together with other areas such as cybersecurity, QRadar).
Fig. I A. C4.5.4-8. URL: https://www.ibm.com/watson/ai-ethics/
Sobre esta plataforma IBM replantea los principios (más bien creados para investigación y desarrollo anteriores) para cimentarlos de forma más adecuada a la empresa. Argumentan que los datos y las ideas pertenecen a las personas y empresas que los crearon. Y que las organizaciones que recopilan, almacenan, administran o procesan datos tienen la obligación de manejarlos de manera responsable. Y sobre esta plataforma de negocios IBM vuelve a darnos otros 5 principios de confianza.
- Confianza y responsabilidad: los datos y las ideas pertenecen a las personas y empresas que los crearon. Las organizaciones que recopilan, almacenan, administran o procesan datos tienen la obligación de manejarlos de manera responsable.
- Confianza técnica: saber cómo un sistema de IA llega a un resultado es clave para confiar. Para mejorar la transparencia, debemos definir cómo construimos, implementamos y gestionamos sistemas de IA a través de la investigación científica.
- Sesgo, diversidad e inclusión: son necesarios modelos imparciales y un espíritu de diversidad e inclusión para crear sistemas de IA justos, que puedan mitigar, en lugar de acelerar, nuestros prejuicios existentes.
- IA para el bien social: la IA se puede aplicar para resolver algunos de los problemas más generalizados de la humanidad y crear oportunidades para todos.
- IA, empleos y economía: la IA puede tener un impacto neto positivo al aumentar, no reemplazar, a los profesionales y al crear nuevas oportunidades económicas y educativas para la sociedad.
[English]
On this platform IBM rethinks the principles (rather created for previous research and development) to cement them more adequately to the company. They argue that the data and ideas belong to the people and companies that created them. And that organizations that collect, store, manage or process data have an obligation to handle them responsibly. And on this business platform IBM gives us another 5 principles of trust.
- Trust and responsibility: data and insights belong to the people and businesses who created them. Organizations that collect, store, manage, or process data have an obligation to handle it responsibly.
- Technical trust: Knowing how an AI system arrives at an outcome is key to trust. To improve transparency, we should define how we build, deploy, and manage AI systems through scientific research.
- Bias, diversity, and inclusion: unbiased models and a spirit of diversity and inclusion are necessary to create fair AI systems, which can mitigate, rather than accelerate, our existing prejudices.
- AI for social good: AI can be applied to solve some of humanity’s most pervasive problems and create opportunity for all.
- AI, jobs, and the economy: AI can have a net-positive impact by augmenting - not replacing - professionals and by creating new economic and educational opportunities for society.
Herramientas de IBM | IBM tools
De acuerdo a las propuestas descritas anteriormente (en torno a tres principios básicos, explicabilidad, equidad y trazabilidad) IBM ha desarrollado herramientas que permitan de forma cuantitativa acometar esos elementos teóricos (a veces para la investigación y otras para la parte comercial). | According to the proposals described above (around three basic principles, explainability, fairness and traceability) IBM has developed tools that allow quantitatively to undertake these theoretical elements (sometimes for research and sometimes for the commercial part)
Este kit de herramientas de código abierto extensible puede ayudar a comprender (explicabilidad) cómo los modelos de aprendizaje automático predicen por diversos medios a lo largo del ciclo de vida de la aplicación AI. Con ocho algoritmos de vanguardia para el aprendizaje automático interpretable, así como métricas para la explicabilidad, está diseñado para traducir la investigación algorítmica del laboratorio en la práctica real de dominios tan amplios como finanzas, gestión de capital humano, atención médica, y educación.
[English]
This extensible open source toolkit can help you comprehend (explainability) how machine learning models predict labels by various means throughout the AI application lifecycle. Containing eight state-of-the-art algorithms for interpretable machine learning as well as metrics for explainability, it is designed to translate algorithmic research from the lab into the actual practice of domains as wide-ranging as finance, human capital management, healthcare, and education.
Este kit de herramientas de código abierto extensible puede ayudar a examinar, informar y mitigar la discriminación y el sesgo (justicia o igualdad) en los modelos de aprendizaje automático a lo largo del ciclo de vida de la aplicación AI. Con más de 70 métricas de equidad y 10 algoritmos de mitigación de sesgos de última generación desarrollados por la comunidad investigadora, está diseñado para traducir la investigación algorítmica del laboratorio en la práctica real de dominios tan amplios como finanzas, gestión de capital humano, salud y educación.
[English]
This extensible open source toolkit can help you examine, report, and mitigate discrimination and bias in machine learning models throughout the AI application lifecycle. Containing over 70 fairness metrics and 10 state-of-the-art bias mitigation algorithms developed by the research community, it is designed to translate algorithmic research from the lab into the actual practice of domains as wide-ranging as finance, human capital management, healthcare, and education.
Adversarial Robustness Toolbox está diseñado para ayudar a los investigadores y desarrolladores a crear nuevas técnicas de defensa, así como a desplegar defensas prácticas de sistemas de IA del mundo real. Los investigadores pueden usar la Caja de herramientas de robustez adversaria para comparar las defensas novedosas contra el estado del arte. Para los desarrolladores, la biblioteca proporciona interfaces que admiten la composición de sistemas de defensa integrales utilizando métodos individuales como bloques de construcción.
[English]
The Adversarial Robustness Toolbox is designed to support researchers and developers in creating novel defense techniques, as well as in deploying practical defenses of real-world AI systems. Researchers can use the Adversarial Robustness Toolbox to benchmark novel defenses against the state-of-the-art. For developers, the library provides interfaces which support the composition of comprehensive defense systems using individual methods as building blocks.
- IBM Watson OpenScale
Gestione la IA de producción, con confianza en los resultados. Vea cómo IBM Watson® OpenScale ™ rastrea y mide los resultados de la IA a lo largo de su ciclo de vida, y adapta y gobierna la IA a las situaciones comerciales cambiantes, para modelos construidos y funcionando en cualquier lugar.
[English]
Manage the production AI, with confidence in the results. See how IBM Watson® OpenScale ™ tracks and measures AI results throughout its life cycle, and adapts and governs AI to changing business situations, for models built and running anywhere.
Bibliografía | Bibliografy
[C4.5.4-1] Rossi, F. (6.2.2019). Building Trust In Artificial Intelligence. Columbia SIPA | Journal of International Affairs. [Recuperado (05/09/2019) de: https://jia.sipa.columbia.edu/building-trust-artificial-intelligence
© 2019. Licencia de uso y distribución / License for use and distribution: [ Los estados de la inteligencia artificial (IA) | The states of artificial intelligence (AI) ] creative commons CC BY-NC-ND |ISSN 2695-3803|