Info
Content

Capítulo 4-5º | Chapter 4-5º

IA empresarial | Business AI



Fig. I A. C4.5.1- La IA está transformando el lugar de trabajo. Pero, ¿qué está en riesgo? | AI is transforming the workplace. But what's at risk?. Crédito imág (). URL: https://pmd.cdn.turner.com/cnn/big/business/2019/04/26/caption/ai-how-we-work-biz-evolved-lon-orig.cnn_2583548_768x432_1300k.mp4 


Ir al índice principal del libro Go to the main index of the book

Contenidos

 

Contents

4.5.1º.- Introducción a la IA empresarial

4.5.1º.- Introduction to business AI

4.5.2º.- IA confiable de Google

4.5.2º.- Google Reliable AI

4.5.3º.- IA confiable de Microsoft

4.5.3º.- Microsoft Reliable AI

4.5.4º.- IA confiable de IBM

4.5.4º.- IBM Reliable AI

4.5.5º.- IA confiable de IEEE

4.5.5º.-  IEEE Reliable AI


| Autor / Author: Juan Antonio Lloret Egea | Miembro de la Alianza Europea para la IA / Member to the European AI Alliance |https://orcid.org/0000-0002-6634-3351|© 2019. Licencia de uso y distribución / License for use and distribution: [ Los estados de la inteligencia artificial (IA) | The states of artificial intelligence (AI) ] creative commons CC BY-NC-ND |ISSN 2695-3803|| Escrito / Writed: 05/09/2019. Actualizado / Updated: 05/09/2019 |


4.5.1.- Introducción a la IA empresarial | Introduction to business AI

Gartner define la inteligencia artificial como "aplicar análisis avanzado y técnicas basadas en la lógica, incluido el aprendizaje automático, para interpretar eventos, apoyar y automatizar decisiones y tomar medidas". Por lo que el aprendizaje automático es un precursor vital para lograr la inteligencia artificial, pero no en sí misma. En otras palabras, la relación entre ML y AI se puede expresar en la siguiente ecuación:   Aprendizaje automático + Decisiones + Acción = Inteligencia artificialC4.5.1-1.


Fintech: Financial Technology (en español Tecnología Financiera).


Las oportunidades para fintech se encuentran dentro de la IA aplicada, y su potencial está valorado en $ 1 billón en ahorros de costos para 2030, según un informe de Autonomous Research LLP. En pocas palabras, a medida que la IA reduce el costo para atender a los clientes, puede atender a más clientes. Y como resultado de ML los nuevos aprendizajes conducirán a nuevos datos que impulsarán acciones más inteligentes para aumentar los ingresos. Muy pocas fintechs han llevado la IA a la producción. Se han realizado progresos en procesos operativos como chatbots para la oficina principal, para la oficina central y riesgos de suscripción para la oficina administrativa. Pero la mayoría de las fintechs aún no han aplicado la IA en funciones de nivel superior, como biometría, asistentes de voz y cumplimiento mediante contratos inteligentes. 

Dos factores clave impiden que las fintech se den cuenta de todo el potencial de la IA: el sentimiento y el riesgo del consumidor.

En general los consumidores desconfían de la IA en las finanzas. Una encuesta reciente encontró que los consumidores se sienten más cómodos con la cirugía robótica que con el asesoramiento financiero de un asesor automático. Y a diferencia de Amazon, Spotify y Netflix, las fintechs experimentan costos financieros y regulatorios reales para tomar malas decisiones basadas en la inteligencia artificial. Si bien una recomendación de un producto, una canción o una película deficientes puede, en el peor de los casos, provocar un cliente irritado, una decisión de crédito incorrecta conduce a una menor rentabilidad y posibles multas para las fintech y un acceso insuficiente al crédito para los clientes.

Si bien superar el sentimiento del consumidor requerirá educación con el tiempo, hay pasos prácticos que las fintech pueden tomar ahora para abordar el riesgo:

  1. Comience con casos de uso operacionales en la oficina central y administrativa.
  2. Adopte la redundancia y la remediación. (Esto significa diseñar procesos que permitan la anulación manual y la corrección de los resultados de IA. Esto le permite verificar que su proceso automatizado se ejecute de la manera que lo desea).
  3. Monitoree todoC4.5.1-1.

[English]

Gartner defines artificial intelligence as "applying advanced analysis and logic-based techniques, including machine learning, to interpret events, support and automate decisions and take action." So machine learning is a vital precursor to achieve artificial intelligence, but not in itself. In other words, the relationship between ML and AI can be expressed in the following equation: Machine learning + Decisions + Action = Artificial intelligence C4.5.1-1.


Fintech: Financial Technology


Opportunities for fintech are within the applied AI, and its potential is valued at $ 1 billion in cost savings by 2030, according to a report by Autonomous Research LLP. Simply put, as AI reduces the cost to serve customers, it can serve more customers. And as a result of ML the new learning will lead to new data that will drive smarter actions to increase revenue. Very few fintechs have brought AI to production. Progress has been made in operational processes such as chatbots for the main office, for the central office and subscription risks for the administrative office. But most fintechs have not yet applied AI in higher-level functions, such as biometrics, voice assistants and compliance through smart contracts.

Two key factors prevent fintech from realizing the full potential of AI: consumer sentiment and risk.

In general, consumers distrust AI in finance. A recent survey found that consumers feel more comfortable with robotic surgery than with the financial advice of an automatic advisor. And unlike Amazon, Spotify and Netflix, fintechs experience real financial and regulatory costs to make bad decisions based on artificial intelligence. While a recommendation for a poor product, song or movie can, in the worst case, cause an irritated customer, an incorrect credit decision leads to lower profitability and possible fines for fintech and insufficient access to credit for customers.

While overcoming consumer sentiment will require education over time, there are practical steps that Fintech can now take to address risk:

  1. Start with operational use cases in the central and administrative office.
  2. Adopt redundancy and remediation. (This means designing processes that allow manual override and correcting AI results. This allows you to verify that your automated process runs as you wish).
  3. Monitor everything C4.5.1-1.

4.5.1.1.- Estrategias nacionales e internacionales de IA | National and International AI Strategies

05.09.2019. Extraído de la página web | Extracted from the website: National and International AI Strategies. Future of Life Institute.  FLI tiene su sede en el área de Boston y agradece la participación de científicos, estudiantes, filántropos y otras personas cercanas y de todo el mundo. Es una organización benéfica y de divulgación que trabaja para garantizar que las tecnologías más poderosas del mañana sean beneficiosas para la humanidad. | 05.09.2019. FLI is headquartered in the Boston area and appreciates the participation of scientists, students, philanthropists and other people nearby and around the world. It is a charity and outreach organization that works to ensure that tomorrow's most powerful technologies are beneficial to humanity.


4.5.1.1.A.- Estrategias internacionales | International Strategies

4.5.1.1.B.- Estrategias nacionales | National Strategies
  • Australia: Australia has dedicated $29.9 million in the country’s annual budget to promote and guide the development of AI.
  • Austria: Austria has an advisory Robot Council that is developing a national AI strategy.
  • Canada: Canada has a national AI strategy called the Pan-Canadian Artificial Intelligence Strategy.
  • China: China has a national AI strategy, defined under the “New Generation Artificial Intelligence Development Plan.”
  • Denmark: Denmark has a digital strategy that includes a focus on AI along with other technologies.
  • Estonia: Estonia is developing a legal framework for the use of AI in its country, including a bill on AI liability.
  • FinlandFinland has an Artificial Intelligence Programme guided by a steering group under the Ministry of Economic Affairs and Employment.
  • France: France has a national strategy for AI called “AI for Humanity,” which is outlined in the “Villani Report”.
  • Germany: The German Government adopted its Artificial Intelligence Strategy in November 2018.
  • India: India defined a national policy on AI in a working paper titled, “National Strategy for Artificial Intelligence #AIforAll.”
  • Ireland: The Irish government has hosted AI workshops and launched a national AI Masters program.
  • Italy: Italy has an interdisciplinary AI Task Force launched by the Agency for Digital Italy.
  • Japan: Japan has an “Artificial Intelligence Technology Strategy” and has also included AI in its “integrated innovation strategy.”
  • KenyaThe Kenyan government created a Blockchain & Artificial Intelligence task force.
  • Malaysia: The Malaysian government is developing a National Artificial Intelligence Framework, and establishing Digital Transformation Labs.
  • Mexico: The Mexican government supported the creation of the white paper, “Towards an AI Strategy in Mexico: Harnessing the AI Revolution.”
  • New Zealand: New Zealand has an AI Forum to connect and advance the country’s AI ecosystem.
  • Russia: The Russian government is currently developing an AI R&D national strategy.
  • Singapore: Singapore has a national AI program called AI Singapore and is establishing an AI ethics advisory council.
  • Saudi Arabia: Saudi Arabia was the first country to grant citizenship to a robot.
  • South Korea: South Korea has an Artificial Intelligence Information Industry Development Strategy.
  • Sweden: The Swedish government has released a “National Approach for Artificial Intelligence.”
  • Tunisia: Tunisia has created an AI Task Force and Steering Committee to develop a national AI strategy.
  • United Arab Emirates: The UAE has a national strategy for AI and was the first country to name an AI Minister.
  • United States of America: The US launched the American AI Initiative February 2019.
  • United Kingdom: The UK government launched a Sector Deal for AI to advance the UK’s ambitions in AI consistent with its Industrial Strategy, and taking into account the advice of the Parliament’s Select Committee on AI.

Adicionalmente es de interés esta información sobre China | Additionally, this information about China is of interest:

Establecimiento de 10 nuevas plataformas nacionales de innovación abierta de IA de nueva generación | Establishment of 10 new National New Generation AI Open Innovation Platforms


4.5.1.2.-Principios de la OCDE sobre IA | OECD Principles on AI

De | From: http://www.oecd.org/going-digital/ai/principles/

La recomendación identifica cinco principios complementarios basados en valores para la administración responsable de IA confiable | The recommendation identifies five complementary values-based principles for the responsible stewardship of trustworthy AI:

  1. La IA debería beneficiar a las personas y al planeta al impulsar el crecimiento inclusivo, el desarrollo sostenible y el bienestar | AI should benefit people and the planet by driving inclusive growth, sustainable development and well-being.
  2. Los sistemas de IA deben diseñarse de manera que respeten el estado de derecho, los derechos humanos, los valores democráticos y la diversidad, y deben incluir salvaguardas apropiadas, por ejemplo, permitiendo la intervención humana cuando sea necesario, para garantizar una sociedad justa y equitativa. | AI systems should be designed in a way that respects the rule of law, human rights, democratic values and diversity, and they should include appropriate safeguards – for example, enabling human intervention where necessary – to ensure a fair and just society.
  3. Debe haber transparencia y divulgación responsable en torno a los sistemas de inteligencia artificial para garantizar que las personas entiendan los resultados basados en inteligencia artificial y puedan desafiarlos. | There should be transparency and responsible disclosure around AI systems to ensure that people understand AI-based outcomes and can challenge them.
  4. Los sistemas de IA deben funcionar de manera sólida, segura y segura a lo largo de sus ciclos de vida y los riesgos potenciales deben evaluarse y gestionarse continuamente. | AI systems must function in a robust, secure and safe way throughout their life cycles and potential risks should be continually assessed and managed.
  5. Las organizaciones y las personas que desarrollan, implementan u operan sistemas de inteligencia artificial deben ser responsables de su correcto funcionamiento de acuerdo con los principios anteriores. | Organisations and individuals developing, deploying or operating AI systems should be held accountable for their proper functioning in line with the above principles.

Contenidos

Contents

4.5.2.4.- Fomento de la confianza en la Inteligencia Artificial

4.5.2.4.- Building Trust In Artificial Intelligence

 

4.5.1.3.- Fomento de la confianza en la Inteligencia Artificial  | Building Trust In Artificial Intelligence

Autora | AuthorFrancesca Rossi | (Líder Global de Ética de la IA en IBM Research, profesora de Ciencias de la Computación en la Universidad de Padua, Italia (con licencia) y miembro del Grupo de Expertos de Alto Nivel en Inteligencia Artificial de la Comisión Europea). | (IA Global Ethics Leader in IBM Research, Professor of Computer Science at the University of Padua, Italy (licensed) and member of the High Level Group of Artificial Intelligence Experts of the European Commission). Extracto del artículo de fecha Y publicado en | And published in: Columbia SIPA | Journal of International Affairs. (Una revista líder revisada por pares publicada por la Escuela de Asuntos Internacionales y Públicos de la Universidad de Columbia. | (A leading peer-reviewed journal published by the University of Columbia School of International and Public Affairs)C4.5.1-2.


La IA podemos clasificarla en dos áreas principales de investigación. Estas dos líneas de investigación y formas de pensar sobre la IA se combinan cada vez más para maximizar las ventajas de ambos y mitigar sus inconvenientes. Una se basa en reglas, lógica y símbolos; es explicable, y siempre encuentra una solución correcta para un problema dado (si ese problema se ha especificado correctamente). Sin embargo sólo se puede usar cuando se pueden prever todos los escenarios posibles para el problema en cuestión. La otra área de investigación, se basa en ejemplos, análisis de datos y correlación. Se puede aplicar en casos donde hay una noción incompleta o mal definida del problema a resolver. Este tipo de IA requiere una gran cantidad de datos, generalmente es menos explicable y siempre hay un pequeño margen de error. 

La convergencia de algoritmos mejorados y una gran potencia informática y grandes cantidades de datos proporcionan a los sistemas de IA capacidades de percepción a nivel humano como voz a texto, comprensión de texto, interpretación de imágenes, etc para los que los métodos de aprendizaje automático son adecuados. Las aplicaciones típicas en la IA empresarial son los sistemas de soporte de decisiones para médicos, educadores, operadores de servicios financieros que necesitan tomar decisiones complejas basadas en bigdata. Una tecnología tan poderosa también plantea algunas preocupaciones como su capacidad para tomar decisiones importantes de una manera que los humanos la  percibieran como justa, para ser conscientes y alineados con los valores humanos que son relevantes para los problemas que se abordan, y la capacidad de explicar su razonamiento y toma de decisiones.

Según un estudio realizado por el Instituto de Valor Empresarial de IBM el 82% de todas las empresas y el 93% de las empresas de alto rendimiento ahora están considerando o avanzando con la adopción de IA, atraídos por la capacidad de la tecnología para generar ingresos, mejorar el servicio al cliente, reducir costos y gestionar el riesgo. Sin embargo, aunque se dan cuenta de los enormes beneficios de esta tecnología, el 60% de esas compañías temen problemas de responsabilidad y el 63% dice que carecen de las habilidades para aprovechar el potencial de la IA.


Principios de alto nivel para la IA


Tanto los investigadores como los pensadores de políticas están luchando con las preguntas mencionadas anteriormente. Como resultado de esta discusión en curso, se han definido y evaluado públicamente varios principios rectores de alto nivel sobre el diseño, desarrollo y uso de IA:

  • Los principios de confianza y transparencia de IBM: AI debería aumentar la inteligencia humana en lugar de reemplazarla, la confianza es clave para la adopción y las políticas de datos deben ser transparentes.
  • Los principios de Google sobre IA: la IA debería proteger la privacidad y ser socialmente beneficiosa, justa, segura y responsable ante las personas.
  • Los principios de IA de Asilomar: esbozados en la Conferencia de Asilomar de 2017, estos 23 principios cubren la investigación, la ética y los valores en IA, además de cuestiones a largo plazo. Los principios han sido firmados por 1.273 investigadores y otras 2.541 partes interesadas.
  • Los principios de la Asociación para la IA (PAI):  ocho principios para un entorno abierto y colaborativo para discutir las mejores prácticas de IA, la responsabilidad social de las empresas que ofrecen IA, la explicabilidad de la IA y la confianza. Cada socio que quiera unirse al PAI debe registrarse en estos principios.
  • Los principios del Foro Económico Mundial para la IA ética: cinco principios que cubren el propósito de la IA, su equidad e inteligibilidad, la protección de datos, el derecho de todos a explotar la IA para su bienestar, así como la oposición a las armas autónomas.
  • Principios generales del Instituto de Ingenieros Eléctricos y Electrónicos: un conjunto de principios que ubican a la IA dentro de un marco de derechos humanos con referencias al bienestar, la responsabilidad, la responsabilidad corporativa, el valor por diseño y la IA ética.

Implementación práctica de principios de alto nivel


Dichos principios son un primer paso importante, pero estas conversaciones deben ser seguidas por acciones concretas para implementar soluciones viables.

  1. Explicabilidad: las empresas y los usuarios quieren sistemas de IA que sean transparentes, explicables, éticos, debidamente capacitados con los datos apropiados y sin sesgos.
  2. Conciencia de sesgo y mitigación: la detección y mitigación de sesgos también son fundamentales para lograr la confianza en la IA. El sesgo se puede introducir a través de los datos de entrenamiento, cuando no es lo suficientemente equilibrado e inclusivo, pero también se puede inyectar en el modelo de IA de muchas otras maneras. Es importante ayudar a los desarrolladores a darse cuenta de lo que está disponible y se puede usar en los sistemas de IA actuales debido a la abundancia de métricas de sesgo, nociones de equidad y algoritmos de mitigación y detección de sesgos. [Con ese fin IBM ha puesto a disposición de la comunidad de código abierto un conjunto de herramientas llamado 'AI Fairness 360' para ayudar a los desarrolladores y científicos de datos a verificar y mitigar el sesgo en los modelos de IA utilizando soluciones de manejo de sesgos, y apoyándolos con pautas, conjuntos de datos, tutoriales, métricas y algoritmos].
  3. Confiando en los productores de IA: la confianza en la tecnología debe complementarse con la confianza en quienes producen la tecnología. Y las capacidades de explicabilidad deben describirse y ponerse a disposición de todos los usuarios. [IBM han lanzado un conjunto de capacidades de confianza y transparencia para la IA, diseñadas en torno a tres principios básicos: explicabilidad, equidad y trazabilidad. IBM ha propuesto la idea de una "hoja informativa de IA" donde los desarrolladores deben registrar todas las decisiones de diseño y las propiedades de rendimiento del sistema de IA desarrollado, desde los algoritmos de manejo de sesgos hasta los conjuntos de datos de capacitación y las herramientas explicables, etc. Además, para ayudar a los desarrolladores y diseñadores a pensar sobre estos temas, IBM ha lanzado un folleto, llamado "Ética cotidiana para la inteligencia artificial", para sensibilizar a los desarrolladores y diseñadores sobre estos temas y ayudarlos a pensar y encontrar soluciones para capacidades relacionadas con la confianza en su trabajo diario]. 
  4. Conducción y facilitación de AI confiable: también se necesita una fuerte colaboración con los formuladores de políticas y los reguladores. En la UE, la Comisión Europea está adoptando un enfoque múltiple para fomentar el desarrollo responsable y el despliegue de la IA.  En los Estados Unidos, algunos han pedido reglas para restringir el diseño y el uso de la IA, aunque todavía no existe un enfoque integral para comprender cuál podría ser el enfoque correcto para el entorno estadounidense.

[English]

AI can be classified into two main areas of research. These two lines of research and ways of thinking about AI are increasingly combined to maximize the advantages of both and mitigate their disadvantages. One is based on rules, logic and symbols; It is explainable, and always finds a correct solution for a given problem (if that problem has been specified correctly). However, it can only be used when all possible scenarios for the problem in question can be foreseen. The other area of ​​research is based on examples, data analysis and correlation. It can be applied in cases where there is an incomplete or poorly defined notion of the problem to be solved. This type of AI requires a large amount of data, it is generally less explainable and there is always a small margin for error.

The convergence of improved algorithms and high computing power and large amounts of data provide AI systems with human-level perception capabilities such as voice to text, text comprehension, image interpretation, etc. for which machine learning methods are adequate. Typical applications in business AI are decision support systems for doctors, educators, financial services operators who need to make complex decisions based on bigdata. Such a powerful technology also raises some concerns such as its ability to make important decisions in a way that humans perceived as fair, to be aware and aligned with human values ​​that are relevant to the problems being addressed, and the ability to explain your reasoning and decision making.

According to a study by the IBM Business Value Institute, 82% of all companies and 93% of high-performance companies are now considering or moving forward with the adoption of AI, attracted by the ability of technology to generate revenue, improve customer service, reduce costs and manage risk. However, although they realize the enormous benefits of this technology, 60 percent of those companies fear liability issues and 63% say they lack the skills to harness the potential of AI.


High level principles for AI


Both researchers and policy makers are struggling with the questions mentioned above. As a result of this ongoing discussion, several high-level guiding principles on the design, development and use of AI have been publicly defined and evaluated:

  • IBM's principles of trust and transparency: AI should increase human intelligence instead of replacing it, trust is key to adoption and data policies must be transparent.
  • Google's principles on AI: AI should protect privacy and be socially beneficial, fair, secure and accountable to people.
  • The Asilomar AI principles: outlined at the 2017 Asilomar Conference, these 23 principles cover research, ethics and values ​​in AI, as well as long-term issues. The principles have been signed by 1,273 researchers and 2,541 interested parties.
  • The principles of the Association for AI (PAI): eight principles for an open and collaborative environment to discuss the best practices of AI, the social responsibility of companies offering AI, the explainability of AI and trust. Each partner who wants to join the MYP must register on these principles.
  • The principles of the World Economic Forum for ethical AI: five principles that cover the purpose of AI, its equity and intelligibility, data protection, everyone's right to exploit AI for their well-being, as well as the opposition to weapons autonomous.
  • General principles of the Institute of Electrical and Electronic Engineers: a set of principles that place AI within a human rights framework with references to well-being, responsibility, corporate responsibility, value by design and ethical AI.

Practical implementation of high level principles


These principles are an important first step, but these conversations must be followed by concrete actions to implement viable solutions.

  1. Explanation: companies and users want AI systems that are transparent, explainable, ethical, properly trained with the appropriate data and without bias.
  2. Awareness of bias and mitigation: the detection and mitigation of biases are also essential to achieve confidence in AI. Bias can be introduced through training data, when it is not sufficiently balanced and inclusive, but it can also be injected into the AI model in many other ways. It is important to help developers realize what is available and can be used in current AI systems due to the abundance of bias metrics, notions of equity and mitigation and bias detection algorithms. [To that end, IBM has made a set of tools called 'AI Fairness 360' available to the open source community to help developers and data scientists verify and mitigate bias in AI models using management solutions. biases, and supporting them with guidelines, data sets, tutorials, metrics and algorithms].
  3. Trusting AI producers: trust in technology must be complemented with trust in those who produce the technology. And the explainability capabilities must be described and made available to all users. [IBM has launched a set of trust and transparency capabilities for AI, designed around three basic principles: explainability, equity and traceability. IBM has proposed the idea of ​​an "AI fact sheet" where developers should record all design decisions and performance properties of the AI ​​system developed, from bias management algorithms to training data sets and explainable tools, etc. In addition, to help developers and designers think about these issues, IBM has launched a booklet, called "Everyday Ethics for Artificial Intelligence," to raise awareness among developers and designers about these issues and help them think and find solutions for capabilities. related to trust in their daily work].
  4. Driving and facilitating reliable AI: strong collaboration with policy makers and regulators is also needed. In the EU, the European Commission is adopting a multiple approach to promote responsible development and AI deployment. In the United States, some have asked for rules to restrict the design and use of AI, although there is still no comprehensive approach to understanding what the right approach could be for the American environment.

Bibliografía | Bibliografy


[C4.5.1-1] Decosmo, J. (9.8.2019). How Fintechs Can Leverage Artificial Intelligence. Forbes Technology Council. [Recuperado (05/09/2019) de: https://www-forbes-com.cdn.ampproject.org/c/s/www.forbes.com/sites/forbestechcouncil/2019/08/09/how-fintechs-can-leverage-artificial-intelligence/amp/ ]

[C4.5.1-2] Rossi, F. (6.2.2019). Building Trust In Artificial Intelligence. Columbia SIPA | Journal of International Affairs. [Recuperado (05/09/2019) de: https://jia.sipa.columbia.edu/building-trust-artificial-intelligence


© 2019. Licencia de uso y distribución / License for use and distribution: [ Los estados de la inteligencia artificial (IA) | The states of artificial intelligence (AI) ] creative commons CC BY-NC-ND |ISSN 2695-3803|


4.5.2º.- IA confiable de Google | Google Reliable AI


Fig. I A. C4.5.2-1- El futuro de la IA: una perspectiva de Google | The Future of AI: A Google Perspective. Crédito imág (). URL: https://youtu.be/fm9oZpIC0sY


Ir al índice principal del libro Go to the main index of the book

Contenidos

 

Contents

4.5.1º.- Introducción a la IA empresarial

4.5.1º.- Introduction to business AI

4.5.2º.- IA confiable de Google

4.5.2º.- Google Reliable AI

4.5.3º.- IA confiable de Microsoft

4.5.3º.- Microsoft Reliable AI

4.5.4º.- IA confiable de IBM

4.5.4º.- IBM Reliable AI

4.5.5º.- IA confiable de IEEE

4.5.5º.-  IEEE Reliable AI


| Autor / Author: Juan Antonio Lloret Egea | Miembro de la Alianza Europea para la IA / Member to the European AI Alliance |https://orcid.org/0000-0002-6634-3351|© 2019. Licencia de uso y distribución / License for use and distribution: [ Los estados de la inteligencia artificial (IA) | The states of artificial intelligence (AI) ] creative commons CC BY-NC-ND |ISSN 2695-3803| | Escrito / Writed: 05/09/2019. Actualizado / Updated: 05/09/2019 |

Sundar Pichai (Ceo).

En el fondo la IA es la programación informática que aprende y se adapta.  Tenemos siete principios para guiar nuestro trabajo en el futuro:
  1. Sea socialmente beneficioso.
  2. Evite crear o reforzar el sesgo injusto. (Los algoritmos y conjuntos de datos de IA pueden reflejar, reforzar o reducir los sesgos injustos).
  3. Ser construido y probado para la seguridad. (En los casos apropiados, probaremos las tecnologías de IA en entornos restringidos y supervisaremos su funcionamiento después de la implementación).
  4. Ser responsable ante las personas. (Nuestras tecnologías de IA estarán sujetas a la dirección y el control humanos adecuados).
  5. Incorpore los principios de diseño de privacidad. (Incorporaremos nuestros principios de privacidad en el desarrollo y uso de nuestras tecnologías de IA. Daremos la oportunidad de previo aviso y consentimiento, fomentaremos arquitecturas con salvaguardas de privacidad y proporcionaremos la transparencia y el control adecuados sobre el uso de datos).
  6. Mantener altos estándares de excelencia científica. (Trabajaremos con una serie de partes interesadas para promover un liderazgo reflexivo en esta área, basándose en enfoques científicamente rigurosos y multidisciplinarios. Y compartiremos de manera responsable el conocimiento de la IA mediante la publicación de materiales educativos, mejores prácticas e investigación que permiten a más personas desarrollar aplicaciones útiles de IA).
  7. Estar disponible para usos que se ajustan a estos principios.
  • Propósito y uso principal: el propósito principal y el uso probable de una tecnología y aplicación, incluyendo la relación con la solución o adaptable a un uso nocivo).
  • Naturaleza y singularidad: si estamos poniendo a disposición una tecnología única o más generalmente disponible.
  • Escala: si el uso de esta tecnología tendrá un impacto significativo.

  • Naturaleza de la participación de Google: si estamos proporcionando herramientas de propósito general, integrando herramientas para los clientes o desarrollando soluciones personalizadasC4.5.2-1.


[English]

Basically, AI is the computer programming that learns and adapts. We have seven principles to guide our work in the future:

  1. Be socially beneficial.
  2. Avoid creating or reinforcing unfair bias. (AI algorithms and data sets may reflect, reinforce or reduce unfair biases).
  3. Be built and tested for safety. (In appropriate cases, we will test AI technologies in restricted environments and monitor their operation after implementation).
  4. Be responsible to people. (Our AI technologies will be subject to adequate human direction and control).
  5. Incorporate the principles of privacy design. (We will incorporate our privacy principles in the development and use of our AI technologies. We will give the opportunity for prior notice and consent, we will promote architectures with privacy safeguards and provide adequate transparency and control over the use of data).
  6. Maintain high standards of scientific excellence. (We will work with a number of stakeholders to promote reflective leadership in this area, based on scientifically rigorous and multidisciplinary approaches. And we will responsibly share the knowledge of AI through the publication of educational materials, best practices and research that allow more people develop useful applications of AI).
  7. Be available for uses that conform to these principles.
  • Main purpose and use: the main purpose and probable use of a technology and application, including the relationship with the solution or adaptable to harmful use).
  • Nature and uniqueness: if we are making available a unique or more generally available technology.
  • Scale: if the use of this technology will have a significant impact.
  • Nature of Google participation: if we are providing general purpose tools, integrating tools for customers or developing custom solutions C4.5.2-1.

Aplicaciones de IA que no perseguiremos | AI applications that we will not pursue

Además de los objetivos anteriores, no diseñaremos ni implementaremos IA en las siguientes áreas de aplicación:

  • Tecnologías que causan o es probable que causen daño general. 
  • Armas u otras tecnologías cuyo propósito principal o implementación sea causar o facilitar directamente lesiones a las personas.
  • Tecnologías que recopilan o utilizan información para la vigilancia que viola normas internacionalmente aceptadas.
  • Tecnologías cuyo propósito contraviene principios ampliamente aceptados del derecho internacional y los derechos humanos.

[English]

In addition to the above objectives, we will not design or implement AI in the following application areas:

  • Technologies that cause or are likely to cause general damage.
  • Weapons or other technologies whose main purpose or implementation is to directly cause or facilitate injuries to people.
  • Technologies that collect or use information for surveillance that violates internationally accepted standards.
  • Technologies whose purpose contravenes widely accepted principles of international law and human rights.

Bibliografía | Bibliografy


[C4.5.2-1] Pichai, S. (7.6.2018). AI at Google: our principles. Google. [Recuperado (05/09/2019) de: https://www.blog.google/technology/ai/ai-principles/]



© 2019. Licencia de uso y distribución / License for use and distribution: [ Los estados de la inteligencia artificial (IA) | The states of artificial intelligence (AI) ] creative commons CC BY-NC-ND |ISSN 2695-3803|


4.5.3º.- IA confiable de Microsoft | Microsoft Reliable AI


Fig. I A. C4.5.3-1.- Explorando la ética y la confianza en la IA con Microsoft | Exploring ethics and trust in AI with Microsoft. Crédito imág (). URL: https://youtu.be/pHK5LUOXSS0


Ir al índice principal del libro

Go to the main index of the book

Contenidos

 

Contents

4.5.1º.- Introducción a la IA empresarial

4.5.1º.- Introduction to business AI

4.5.2º.- IA confiable de Google

4.5.2º.- Google Reliable AI

4.5.3º.- IA confiable de Microsoft

4.5.3º.- Microsoft Reliable AI

4.5.4º.- IA confiable de IBM

4.5.4º.- IBM Reliable AI

4.5.5º.- IA confiable de IEEE

4.5.5º.-  IEEE Reliable AI


| Autor / Author: Juan Antonio Lloret Egea | Miembro de la Alianza Europea para la IA / Member to the European AI Alliance |https://orcid.org/0000-0002-6634-3351|© 2019. Licencia de uso y distribución / License for use and distribution: [ Los estados de la inteligencia artificial (IA) | The states of artificial intelligence (AI) ] creative commons CC BY-NC-ND |ISSN 2695-3803|| Escrito / Writed: 05/09/2019. Actualizado / Updated: 05/09/2019 |


Principios de Microsoft AI | Microsoft AI principles

Diseñar IA para ser confiable requiere crear soluciones que reflejen principios éticos que estén profundamente enraizados en valores importantes y atemporales.

  1. Justicia: los sistemas de IA deben tratar a todas las personas de manera justa.
  2. Inclusividad: los sistemas de inteligencia artificial deben empoderar a todos y comprometer a las personas.
  3. Confiabilidad y seguridad: los sistemas de inteligencia artificial deben funcionar de manera confiable y segura.
  4. Transparencia: los sistemas de IA deben ser entendibles.
  5. Privacidad y seguridad: los sistemas de inteligencia artificial deben ser seguros y respetar la privacidad.
  6. Rendición de cuentas: los sistemas de IA deben tener rendición de cuentas algorítmica C4.5.3-1.

[English]

Designing AI to be trustworthy requires creating solutions that reflect ethical principles that are deeply rooted in important and timeless values.

  1. Fairness: AI systems should treat all people fairly.
  2. Inclusiveness: AI systems should empower everyone and engage people.
  3. Reliability & Safety: AI systems should perform reliably and safely.
  4. Transparency: AI systems should be understandable.
  5. Privacy & Security: AI systems should be secure and respect privacy.
  6. Accountability: AI systems should have algorithmic accountability. C4.5.3-1

El presidente de Microsoft, Brad Smith, opera según una simple creencia central: cuando su tecnología cambia el mundo, usted tiene la responsabilidad de ayudar a abordar el mundo que ha ayudado a crear. | Microsoft President Brad Smith operates according to a simple central belief: when your technology changes the world, you have a responsibility to help address the world you have helped create.


ToolsandWeapons_3D_new-1-671x1024.png


Fig. I A. C4.5.3-2.- Herramientas y armas: la promesa y el peligro de la era digital. Por Brad Smith y Carol Ann Browne Prólogo por Bill Gates | Tools and Weapons: The Promise and the Peril of the Digital Age. By Brad Smith and Carol Ann Browne Foreword by Bill Gates. Crédito imág. URL: https://www.amazon.com/Tools-Weapons-Promise-Peril-Digital/dp/1529351561/ref=tmm_hrd_swatch_0?_encoding=UTF8&qid=&sr=


Acerca del libro: Si bien la transformación digital radical es muy prometedora, hemos alcanzado un punto de inflexión. El mundo ha convertido la tecnología de la información en una herramienta poderosa y un arma formidable, y se necesitan nuevos enfoques para gestionar una era definida por invenciones aún más poderosas como la inteligencia artificial. Las empresas que crean tecnología deben aceptar una mayor responsabilidad para el futuro, y los gobiernos deberán regular la tecnología moviéndose más rápido y poniéndose al día con el rápido ritmo de la innovación.

Estos son desafíos que vienen sin un libro de jugadas preexistente, como la privacidad, el cibercrimen y la guerra cibernética, las redes sociales, los acertijos morales de la IA, la relación de las grandes tecnologías con la desigualdad y los desafíos para la democracia, lejos y cerca.

Aunque de ninguna manera es una "memoria de Microsoft" que se glorifica a sí misma, el libro abre el telón de manera notable a algunos de los puntos de decisión recientes más cruciales de la compañía, ya que se esfuerza por proteger las esperanzas que ofrece la tecnología contra las amenazas reales que también presenta. Hay enormes ramificaciones para las comunidades y los países, y Brad Smith proporciona una contribución reflexiva y urgente a ese esfuerzoC4.5.3-1https://news.microsoft.com/on-the-issues/tools-and-weapons/


[English]

About the book: While radical digital transformation is very promising, we have reached a turning point. The world has turned information technology into a powerful tool and a formidable weapon, and new approaches are needed to manage an era defined by even more powerful inventions such as artificial intelligence. Companies that create technology must accept greater responsibility for the future, and governments must regulate technology by moving faster and catching up with the rapid pace of innovation.

These are challenges that come without a pre-existing playbook, such as privacy, cybercrime and cyber warfare, social networks, the moral riddles of AI, the relationship of big technologies with inequality and challenges for democracy, far and near.

Although it is by no means a "Microsoft memory" that glorifies itself, the book opens the curtain in a remarkable way to some of the company's most crucial recent decision points, as it strives to protect the hopes it offers. the technology against the real threats that it also presents. There are huge ramifications for communities and countries, and Brad Smith provides a thoughtful and urgent contribution to that effort C4.5.3-1. https://news.microsoft.com/on-the-issues/tools-and-weapons/


Colaboraciones en inteligencia artificial | Collaborations in artificial intelligence

Principios-de-Microsoft-AI.png


Fig. I A. C4.5.3-3.- Colaboraciones en inteligencia artificial | Collaborations in artificial intelligence. Crédito imág (). URL: https://www.microsoft.com/es-es/ai/our-approach-to-ai?rtc=1


Bots responsables: 10 pautas para desarrolladores de IA conversacional | Responsible bots: 10 guidelines for developers of conversational AI

Fig. I A. C4.5.3-4.- Bots responsables: 10 pautas para desarrolladores de IA conversacional | Responsible bots: 10 guidelines for developers of conversational AI. Crédito imág (). URL: https://www.microsoft.com/en-us/research/publication/responsible-bots/



Bibliografía | Bibliografy


[C4.5.3-1] Microsoft. Principios de Microsoft AI. [Recuperado (05/09/2019) de: https://www.microsoft.com/es-es/ai/our-approach-to-ai?rtc=1


© 2019. Licencia de uso y distribución / License for use and distribution: [ Los estados de la inteligencia artificial (IA) | The states of artificial intelligence (AI) ] creative commons CC BY-NC-ND |ISSN 2695-3803|


4.5.4º.- IA confiable de IBM | IBM Reliable AI


Fig. I A. C4.5.4-1. Tutorial AI Fairness 360 en ACM FAT * 2019, Parte 1 & (2ª Part) | AI Fairness 360 Tutorial at ACM FAT* 2019, Part 1 & (Part 2). Crédito imág (). URL: https://youtu.be/XCFDckvyC0M


Ir al índice principal del libro Go to the main index of the book

Contenidos

 

Contents

4.5.1º.- Introducción a la IA empresarial

4.5.1º.- Introduction to business AI

4.5.2º.- IA confiable de Google

4.5.2º.- Google Reliable AI

4.5.3º.- IA confiable de Microsoft

4.5.3º.- Microsoft Reliable AI

4.5.4º.- IA confiable de IBM

4.5.4º.- IBM Reliable AI

4.5.5º.- IA confiable de IEEE

4.5.5º.-  IEEE Reliable AI


Autor / Author: Juan Antonio Lloret Egea |eu-ai-alliance-3_0.pngMiembro de la Alianza Europea para la IA / Member to the European AI Alliance | https://orcid.org/0000-0002-6634-3351| Escrito / Writed: 05/09/2019. Actualizado / Updated: 05/09/2019|

© 2019. Licencia de uso / License for use: [ Los estados de la inteligencia artificial (IA) | The states of artificial intelligence (AI) ] Creative Commons CC BY-NC-ND |ISSN 2695-3803 |Preprint DOI10.13140/RG.2.2.11525.09445|
4.5.4.1.- IBM sus políticas de IA confiable | IBM its reliable AI policies

IBM parece estar muy bien posicionada en la estrategia de una IA confiable frente a entidades como Google o Microsoft. Vamos a analizar cómo gestiona IBM esto.

Los principios de confianza y transparencia de IBM están centrados en las webs 'Trusted AI for Business' y en  'Trusting AI'.

La explicabilidad (para evitar la caja negra opaca que ofrece a los usuarios escasa visibilidad sobre los datos, procesos y lógica subyacentes que conducen a las decisiones del sistema) trata, entre otros, de enfocarla mediante OpenScale (Watson). Además ha desarrollado un compedio de documentación o publicaciones.



Fig. I A. C4.5.4-2. Conozca las características clave, los beneficios y los casos de uso de Watson OpenScale | Learn about the key features, benefits and use cases of Watson OpenScale. Crédito imág (). URL: https://youtu.be/JVxTQnRiAsc


IBM ha puesto a disposición de la comunidad de código abierto un conjunto de herramientas llamado "AI Fairness 360" para ayudar a los desarrolladores y científicos de datos a verificar y mitigar el sesgo en los modelos de IA utilizando soluciones de manejo de sesgos, y apoyándolos con pautas, conjuntos de datos, tutoriales, métricas y algoritmos. (Conciencia de sesgo y mitigación) C4.5.4-1.


[English]

IBM seems to be very well positioned in the strategy of a reliable AI against entities such as Google or Microsoft. We will analyze how IBM manages this.

IBM's principles of trust and transparency are focused on 'Trusted AI for Business' and on 'Trusting AI'.

The explainability (to avoid the opaque black box, which offers users poor visibility on the underlying data, processes and logic that lead to system decisions), among others, tries to focus it through OpenScale (Watson). He has also developed a compendium of documentation or publications.

IBM has made a set of tools called "AI Fairness 360" available to the open source community to help developers and data scientists verify and mitigate bias in AI models using bias management solutions, and supporting them with guidelines, data sets, tutorials, metrics and algorithms. (Bias Awareness and Mitigation) C4.5.4-1.


AI Fairness 360


RESUMEN. La equidad es una preocupación cada vez más importante, ya que los modelos de aprendizaje automático se utilizan para apoyar la toma de decisiones en aplicaciones de alto riesgo, como préstamos hipotecarios, contratación y sentencias de prisión. Este documento presenta un nuevo kit de herramientas Python de código abierto para la equidad algorítmica, AI Fairness 360 (AIF360), publicado bajo una licencia Apache v2.0 (https://github.com/ibm/aif360). Los objetivos principales de este conjunto de herramientas son ayudar a facilitar la transición de los algoritmos de investigación de equidad para usar en un entorno industrial y proporcionar un marco común para que los investigadores de equidad compartan y evalúen algoritmos. El paquete incluye un conjunto integral de métricas de equidad para conjuntos de datos y modelos, explicaciones para estas métricas y algoritmos para mitigar el sesgo en conjuntos de datos y modelos. También incluye una experiencia web interactiva (https://aif360.mybluemix.net) que proporciona una introducción suave a los conceptos y capacidades para los usuarios de la línea de negocios, así como una amplia documentación, orientación de uso y tutoriales específicos de la industria para habilitar científicos de datos y profesionales para incorporar la herramienta más adecuada para su problema en sus productos de trabajo. La arquitectura del paquete ha sido diseñada para ajustarse a un paradigma estándar utilizado en ciencia de datos, mejorando así la usabilidad para los profesionales. Tal diseño arquitectónico y abstracciones permiten a los investigadores y desarrolladores ampliar el kit de herramientas con sus nuevos algoritmos y mejoras, y usarlo para la evaluación comparativa del rendimiento. Una infraestructura de prueba incorporada mantiene la calidad del código.


[English]

ABSTRACT. Fairness is an increasingly important concern as machine learning models are used to support decision makingin high-stakes applications such as mortgage lending, hiring, and prison sentencing. This paper introduces a newopen source Python toolkit for algorithmic fairness, AI Fairness 360 (AIF360), released under an Apache v2.0license (https://github.com/ibm/aif360 ). The main objectives of this toolkit are to help facilitate thetransition of fairness research algorithms to use in an industrial setting and to provide a common framework forfairness researchers to share and evaluate algorithms.The package includes a comprehensive set of fairness metrics for datasets and models, explanations for thesemetrics, and algorithms to mitigate bias in datasets and models. It also includes an interactive Web experience(https://aif360.mybluemix.net) that provides a gentle introduction to the concepts and capabilitiesfor line-of-business users, as well as extensive documentation, usage guidance, and industry-specific tutorials toenable data scientists and practitioners to incorporate the most appropriate tool for their problem into their workproducts. The architecture of the package has been engineered to conform to a standard paradigm used in datascience, thereby further improving usability for practitioners. Such architectural design and abstractions enableresearchers and developers to extend the toolkit with their new algorithms and improvements, and to use it forperformance benchmarking. A built-in testing infrastructure maintains code quality.


 


Fig. I A. C4.5.4-3. AI FAIRNESS 360: UN JUEGO DE HERRAMIENTAS EXTENSIBLE PARA DETECTAR, ENTENDER Y MITIGAR EL BIAS ALGORITMICO NO DESEADO | AI FAIRNESS 360: AN EXTENSIBLE TOOLKIT FOR DETECTING, UNDERSTANDING, AND MITIGATING UNWANTED ALGORITHMIC BIAS. Crédito imág (). URL: https://www.ibm.com/watson/assets/duo/pdf/everydayethics.pdf


IBM ha propuesto la idea de una "hoja informativa de IA" donde los desarrolladores deben registrar todas las decisiones de diseño y las propiedades de rendimiento del sistema de IA desarrollado, desde los algoritmos de manejo de sesgos hasta los conjuntos de datos de capacitación y las herramientas explicables, etc. IBM argumenta que una Declaración de conformidad del proveedor (SDoC, u hoja de datos, para abreviar) debe ser completada y publicada voluntariamente por los desarrolladores y proveedores de servicios de inteligencia artificial para aumentar la transparencia de sus servicios y generar confianza en ellos (Para confiar en los productos de IA).


[English]

IBM has proposed the idea of an "AI fact sheet" where developers should record all design decisions and performance properties of the AI system developed, from bias management algorithms to training data sets and explainable tools, etc. IBM argues that a Supplier Declaration of Conformity (SDoC, or fact sheet, for short) must be completed and voluntarily published by developers and providers of artificial intelligence services to increase the transparency of their services and build trust in them (To trust AI products).


Hojas informativas: Aumento de la confianza en los servicios de inteligencia artificial a través de las declaraciones de conformidad del proveedor | FactSheets: Increasing Trust in AI Servicesthrough Supplier’s Declarations of Conformity



Fig. I A. C4.5.4-4.  Hojas informativas | FactSheets. Crédito imág (). URL: https://arxiv.org/pdf/1808.07261.pdf


Además, para ayudar a los desarrolladores y diseñadores a pensar sobre estos temas, IBM ha lanzado un folleto, llamado "Ética cotidiana para la inteligencia artificial", para sensibilizar a los desarrolladores y diseñadores sobre estos temas y ayudarlos a pensar y encontrar soluciones para capacidades relacionadas con la confianza en su trabajo diario. 


[English]

In addition, to help developers and designers think about these issues, IBM has launched a booklet, called "Everyday Ethics for Artificial Intelligence," to raise awareness among developers and designers about these issues and help them think and find solutions for capabilities. related to trust in your daily work.



Fig. I A. C4.5.4-5. Ética cotidiana para la Inteligencia Artificial. Everyday Ethics for Artificial Intelligence. URL: https://www.ibm.com/watson/assets/duo/pdf/everydayethics.pdf


Trusting-AI---IBM-Research-AI.png


Fig. I A. C4.5.4-6. Plataforma Trusting AI | AI Trusting Platform. https://www.research.ibm.com/artificial-intelligence/trusted-ai/


A medida que la IA avanza, y los humanos y los sistemas de IA trabajan cada vez más juntos, es esencial que confiemos en la salida de estos sistemas para informar nuestras decisiones. Junto con las consideraciones de política y los esfuerzos comerciales, la ciencia tiene un papel central que desempeñar: desarrollar y aplicar herramientas para conectar los sistemas de inteligencia artificial para la confianza. La estrategia integral de IBM Research aborda múltiples dimensiones de confianza para permitir soluciones de IA que inspiren confianza. En esta plataforma IBM identifica 5 principios:

  1. Justicia
  2. Alineación de valor
  3. Robustez
  4. Explicabilidad
  5. Transparencia y responsabilidad

[English]

As AI advances, and humans and AI systems increasingly work together, it is essential that we trust the output of these systems to inform our decisions. Alongside policy considerations and business efforts, science has a central role to play: developing and applying tools to wire AI systems for trust. IBM Research’s comprehensive strategy addresses multiple dimensions of trust to enable AI solutions that inspire confidence. On this platform IBM identifies 5 principles:

  1. Fairness

Y casi como un paso intermedio (entre la investigación y las empresas) IBM nos propone desde el Institute for Business Value el documento:  "Cambio hacia la IA de grado empresarial: resolución de brechas de datos y habilidades para obtener valor" (IBM, 2018). | And almost as an intermediate step (between research and business) IBM promises us from the Institute for Business Value the document: "Change towards business-grade AI: solving data gaps and skills to obtain value" (IBM, 2018 ).


Fig. I A. C4.5.4-7.  URL: https://www-935.ibm.com/services/us/gbs/thoughtleadership/Enterpriseai/ 


Para finalmente adentrarnos en su plataforma de negocios y exponernos sus principios de confianza sobre ellos. Básicamente fundada sobre Watson, que es un nucleo muy importante de negocio de IBM (conjuntamente con otras áreas como la de ciberseguridad, QRadar).


[English]

To finally get into your business platform and expose your principles of trust about them. Basically founded on Watson, which is a very important core of IBM's business (together with other areas such as cybersecurity, QRadar).


Trusted-AI-for-Business---IBM-Watson.png


Fig. I A. C4.5.4-8.  URL: https://www.ibm.com/watson/ai-ethics/


Sobre esta plataforma IBM replantea los principios (más bien creados para investigación y desarrollo anteriores) para cimentarlos de forma más adecuada a la empresa. Argumentan que los datos y las ideas pertenecen a las personas y empresas que los crearon. Y que las organizaciones que recopilan, almacenan, administran o procesan datos tienen la obligación de manejarlos de manera responsable. Y sobre esta plataforma de negocios IBM vuelve a darnos otros 5 principios de confianza.

  1. Confianza y responsabilidad: los datos y las ideas pertenecen a las personas y empresas que los crearon. Las organizaciones que recopilan, almacenan, administran o procesan datos tienen la obligación de manejarlos de manera responsable.
  2. Confianza técnica: saber cómo un sistema de IA llega a un resultado es clave para confiar. Para mejorar la transparencia, debemos definir cómo construimos, implementamos y gestionamos sistemas de IA a través de la investigación científica.
  3. Sesgo, diversidad e inclusión: son necesarios modelos imparciales y un espíritu de diversidad e inclusión para crear sistemas de IA justos, que puedan mitigar, en lugar de acelerar, nuestros prejuicios existentes.
  4. IA para el bien social: la IA se puede aplicar para resolver algunos de los problemas más generalizados de la humanidad y crear oportunidades para todos.
  5. IA, empleos y economía: la IA puede tener un impacto neto positivo al aumentar, no reemplazar, a los profesionales y al crear nuevas oportunidades económicas y educativas para la sociedad.

[English]

On this platform IBM rethinks the principles (rather created for previous research and development) to cement them more adequately to the company. They argue that the data and ideas belong to the people and companies that created them. And that organizations that collect, store, manage or process data have an obligation to handle them responsibly. And on this business platform IBM gives us another 5 principles of trust.

  1. Trust and responsibility: data and insights belong to the people and businesses who created them. Organizations that collect, store, manage, or process data have an obligation to handle it responsibly.
  2. Technical trust: Knowing how an AI system arrives at an outcome is key to trust. To improve transparency, we should define how we build, deploy, and manage AI systems through scientific research.
  3. Bias, diversity, and inclusion: unbiased models and a spirit of diversity and inclusion are necessary to create fair AI systems, which can mitigate, rather than accelerate, our existing prejudices.
  4. AI for social good: AI can be applied to solve some of humanity’s most pervasive problems and create opportunity for all.
  5. AI, jobs, and the economy: AI can have a net-positive impact by augmenting - not replacing - professionals and by creating new economic and educational opportunities for society.

Herramientas de IBM | IBM tools

De acuerdo a las propuestas descritas anteriormente (en torno a tres principios básicos, explicabilidad, equidad y trazabilidad) IBM ha desarrollado herramientas que permitan de forma cuantitativa acometar esos elementos teóricos (a veces para la investigación y otras para la parte comercial). | According to the proposals described above (around three basic principles, explainability, fairness and traceability) IBM has developed tools that allow quantitatively to undertake these theoretical elements (sometimes for research and sometimes for the commercial part)



Este kit de herramientas de código abierto extensible puede ayudar a comprender (explicabilidad) cómo los modelos de aprendizaje automático predicen por diversos medios a lo largo del ciclo de vida de la aplicación AI. Con ocho algoritmos de vanguardia para el aprendizaje automático interpretable, así como métricas para la explicabilidad, está diseñado para traducir la investigación algorítmica del laboratorio en la práctica real de dominios tan amplios como finanzas, gestión de capital humano, atención médica, y educación.


[English]

This extensible open source toolkit can help you comprehend (explainability) how machine learning models predict labels by various means throughout the AI application lifecycle. Containing eight state-of-the-art algorithms for interpretable machine learning as well as metrics for explainability, it is designed to translate algorithmic research from the lab into the actual practice of domains as wide-ranging as finance, human capital management, healthcare, and education.



Este kit de herramientas de código abierto extensible puede ayudar a examinar, informar y mitigar la discriminación y el sesgo (justicia o igualdad) en los modelos de aprendizaje automático a lo largo del ciclo de vida de la aplicación AI. Con más de 70 métricas de equidad y 10 algoritmos de mitigación de sesgos de última generación desarrollados por la comunidad investigadora, está diseñado para traducir la investigación algorítmica del laboratorio en la práctica real de dominios tan amplios como finanzas, gestión de capital humano, salud y educación.


[English]

This extensible open source toolkit can help you examine, report, and mitigate discrimination and bias in machine learning models throughout the AI application lifecycle. Containing over 70 fairness metrics and 10 state-of-the-art bias mitigation algorithms developed by the research community, it is designed to translate algorithmic research from the lab into the actual practice of domains as wide-ranging as finance, human capital management, healthcare, and education.



Adversarial Robustness Toolbox está diseñado para ayudar a los investigadores y desarrolladores a crear nuevas técnicas de defensa, así como a desplegar defensas prácticas de sistemas de IA del mundo real. Los investigadores pueden usar la Caja de herramientas de robustez adversaria para comparar las defensas novedosas contra el estado del arte. Para los desarrolladores, la biblioteca proporciona interfaces que admiten la composición de sistemas de defensa integrales utilizando métodos individuales como bloques de construcción.


[English]

The Adversarial Robustness Toolbox is designed to support researchers and developers in creating novel defense techniques, as well as in deploying practical defenses of real-world AI systems. Researchers can use the Adversarial Robustness Toolbox to benchmark novel defenses against the state-of-the-art. For developers, the library provides interfaces which support the composition of comprehensive defense systems using individual methods as building blocks.


  • IBM Watson OpenScale

Gestione la IA de producción, con confianza en los resultados. Vea cómo IBM Watson® OpenScale ™ rastrea y mide los resultados de la IA a lo largo de su ciclo de vida, y adapta y gobierna la IA a las situaciones comerciales cambiantes, para modelos construidos y funcionando en cualquier lugar. 


[English]

Manage the production AI, with confidence in the results. See how IBM Watson® OpenScale ™ tracks and measures AI results throughout its life cycle, and adapts and governs AI to changing business situations, for models built and running anywhere.



Bibliografía | Bibliografy


[C4.5.4-1] Rossi, F. (6.2.2019). Building Trust In Artificial Intelligence. Columbia SIPA | Journal of International Affairs. [Recuperado (05/09/2019) de: https://jia.sipa.columbia.edu/building-trust-artificial-intelligence


© 2019. Licencia de uso y distribución / License for use and distribution: [ Los estados de la inteligencia artificial (IA) | The states of artificial intelligence (AI) ] creative commons CC BY-NC-ND |ISSN 2695-3803|


4.5.5º.- IA confiable de IEEE | IEEE Reliable AI

Ethics-in-action-IEEE.png


Fig. I A. C4.5.5-1. Website IEEE. Sobre Ética de Sistemas Autónomos e Inteligentes. Website IEEE. On Ethics of Autonomous and Intelligent Systems. Crédito imág (IEEE). URL: https://ethicsinaction.ieee.org/


Ir al índice principal del libro Go to the main index of the book

Contenidos

 

Contents

4.5.1º.- Introducción a la IA empresarial

4.5.1º.- Introduction to business AI

4.5.2º.- IA confiable de Google

4.5.2º.- Google Reliable AI

4.5.3º.- IA confiable de Microsoft

4.5.3º.- Microsoft Reliable AI

4.5.4º.- IA confiable de IBM

4.5.4º.- IBM Reliable AI

4.5.5º.- IA confiable de IEEE

4.5.5º.-  IEEE Reliable AI


| Autor / Author: Juan Antonio Lloret Egea | Miembro de la Alianza Europea para la IA / Member to the European AI Alliance |https://orcid.org/0000-0002-6634-3351|© 2019. Licencia de uso y distribución / License for use and distribution: [ Los estados de la inteligencia artificial (IA) | The states of artificial intelligence (AI) ] creative commons CC BY-NC-ND |ISSN 2695-3803|| Escrito / Writed: 05/09/2019. Actualizado / Updated: 07/09/2019 |


Si cabe es más notable denotar la existencia de los estándares desde el P7000 al P7014. (El protocolo P7000 - Proceso modelo para abordar inquietudes éticas durante el diseño del sistema). | If possible, it is more remarkable to denote the existence of standards from P7000 to P7014. (The P7000 protocol - Model process to address ethical concerns during system design).


Principios generales
General principles
1. Derechos humanos: A/ IS se creará y operará para respetar, promover y proteger los derechos humanos internacionalmente reconocidos. 1. Human Rights–A/IS shall be created and operated to respect, promote, and protect internationally recognized human rights.
2. Bienestar: los creadores de A/IS adoptarán un mayor bienestar humano como criterio principal de éxito para el desarrollo. 2. Well-being–A/IS creators shall adopt increased human well-being as a primary success criterion for development.
3. Agencia de datos: los creadores de A / IS deben capacitar a las personas con la capacidad de acceder y compartir sus datos de manera segura, para mantener la capacidad de las personas de tener control sobre su identidad. 3. Data Agency–A/IS creators shall empower individuals with the ability to access and securely share their data, to maintain people’s capacity to have control over their identity.
4. Eficacia: los creadores y operadores de A/IS deberán proporcionar evidencia de la efectividad y aptitud para el propósito de A / IS. 4. Effectiveness–A/IS creators and operators shall provide evidence of the effectiveness and fitness for purpose of A/IS.
5. Transparencia: la base de una decisión particular de A/IS siempre debe ser reconocible.
5. Transparency–The basis of a particular A/IS decision should always be discoverable.
6. Responsabilidad: A/IS se creará y operará para proporcionar una justificación inequívoca de todas las decisiones tomadas. 6. Accountability–A/IS shall be created and operated to provide an unambiguous rationale for all decisions made.
7. Conciencia del mal uso: los creadores de A/IS deben protegerse contra todo mal uso potencial y los riesgos de A/IS en funcionamiento. 7. Awareness of Misuse–A/IS creators shall guard against all potential misuses and risks of A/IS in operation.
8. Competencia: los creadores de A/IS deben especificar y los operadores deben cumplir con el conocimiento y la habilidad necesarios para una operación segura y efectiva. 8. Competence–A/IS creators shall specify and operators shall adhere to the knowledge and skill required for safe and effective operation.

* Autonomous and Intelligent systems: (A/IS)


4.5.5.1.- Introducción | Introduction

IIEEE es la organización profesional técnica más grande del mundo dedicada al avance de la tecnología en beneficio de la humanidad. IEEE y sus miembros inspiran a una comunidad global a innovar para un mejor mañana a través de sus más de 423,000 miembros en más de 160 países, y sus publicaciones, conferencias, estándares tecnológicos y actividades profesionales y educativas altamente citadas. Es la 'voz' de confianza para la información de ingeniería, informática y tecnología en todo el mundoC4.5.5-1. Su publicación La biblioteca digital IEEE Xplore es un poderoso recurso para el descubrimiento de contenido científico y técnico publicado por el IEEE (Instituto de Ingenieros Eléctricos y Electrónicos) y sus socios editoriales. IEEE Xplore proporciona acceso web a más de cuatro millones de documentos de texto completo de algunas de las publicaciones más citadas del mundo en ingeniería eléctrica, informática y electrónica.


[English]

IEEE is the world’s largest technical professional organization dedicated to advancing technology for the benefit of humanity.  IEEE and its members inspire a global community to innovate for a better tomorrow through its more than 423,000 members in over 160 countries, and its highly cited publications, conferences, technology standards, and professional and educational activities. IEEE is the trusted “voice” for engineering, computing, and technology information around the globeC4.5.5-1. The IEEE Xplore digital library is a powerful resource for discovery of scientific and technical content published by the IEEE (Institute of Electrical and Electronics Engineers) and its publishing partners. IEEE Xplore provides web access to more than four-million full-text documents from some of the world's most highly-cited publications in electrical engineering, computer science, and electronics.


Uno de los elementos notables del que podemos hacer uso es de su glosario técnico (en inglés). Cuya finalidad es: "El propósito de este glosario es proporcionar a los equipos interdisciplinarios un recurso compartido para referenciar términos que pueden tener significados específicos de la disciplina. Dentro de este documento hay 6 definiciones dadas para la mayoría de los términos. En aquellos casos en los que no se dan 6 definiciones completas para cada término, no se pudo encontrar una definición adecuada dentro de la disciplina examinada. Las 6 categorías de disciplinas de las cuales se extrajeron las definiciones incluyen: lenguaje ordinario; disciplinas computacionales (por ejemplo, matemática y estadística); economía y ciencias sociales; disciplinas de ingeniería; filosofía y ética y derecho y política internacional".

Del que vamos a aprovechar qué definición nos entrega de 'Inteligencia Artificial'.


[English]

The purpose of this glossary is to give interdisciplinary teams a shared resource for reference to terms which may have meanings that are discipline specific. Within this document there are 6 definitions given for most terms. In those cases where 6 full definitions are not given for each term a suitable definition within the discipline examined could not be found. The 6 categories of disciplines from which definition were draws include: ordinary language; computational disciplines (e.g., mathematics and statistics); economics and social sciences; engineering disciplines; philosophy and ethics; and international law and policy.

From which we will take advantage of what definition gives us 'Artificial Intelligence'.



Fig. I A. C4.5.5-2. Glosario IEEE, Ética de Sistemas Autónomos e Inteligentes | IEEE Glossary, Ethics of Autonomous and Intelligent Systems. Crédito imág (IEEE). URL: https://standards.ieee.org/content/dam/ieee-standards/standards/web/documents/other/ead1e_glossary.pdf


  • TÉRMINO | TERMINTELIGENCIA ARTIFICIAL | ARTIFICIAL INTELLIGENCE
  • LENGUAJE ORDINARIO | ORDINARY LANGUAGE: "La capacidad de las computadoras u otras máquinas para exhibir o simular comportamientos inteligentes" (OED) | “The capacity of computers or other machines to exhibit or simulate intelligent behaviour” (OED)
  • DISCIPLINAS COMPUTACIONALES | COMPUTATIONAL DISCIPLINES:

"La IA será un programa que en un mundo arbitrario no será peor que un humano" (Dobrev 2004, 2); "La inteligencia artificial es la empresa de construir un sistema de símbolos que pueda pasar la prueba de Turing de manera confiable" (Ginsberg 2012, 9); Ver Figura 1.1 Russell y Norvig (1995 página 5). “La inteligencia artificial es un campo de la ciencia de la computación relacionada con la comprensión computacional de lo que comúnmente se llama comportamiento inteligente y con la creación de artefactos que exhiben tal comportamiento. Esta definición puede examinarse más de cerca al considerar el campo desde tres puntos de vista: psicología computacional (cuyo objetivo es comprender el comportamiento humano inteligente creando programas informáticos que se comporten de la misma manera que las personas), computacional filosofía (cuyo objetivo es formar una comprensión computacional del comportamiento inteligente a nivel humano, sin limitarse a los algoritmos y estructuras de datos que la mente humana realmente usa), y la inteligencia de la máquina (cuyo objetivo es expandir el frente de lo que sabemos programar ”(Reilly 2004, 40-41).


[English]

“AI will be such a program which in an arbitrary world will cope not worse than a human” (Dobrev 2004, 2); “Artificial intelli-gence is the enterprise of constructing a symbol sys-tem that can reliably pass the Turing test” (Ginsberg 2012, 9); See Figure 1.1 Russell and Norvig (1995 page 5). “Artificial intelli-gence is a field of com-puter science concerne dwith the computational understanding of what is commonly called intelli-gent behavior and with the creation of artifacts that exhibit such behav-ior. This definition may e examined more closely by considering the field from three points of view: computational psychology (the goal of which is to understand human intelli-gent behvaior by creating computer programs that behave in the same way that people do), computa-tional philosopy (the goal of which is to form a com-putational understanding of human-level intelligent behavior, without being resticted to the algorithms and data structures that the human mind actually does use), and machine intelligence (the goal of which is to expand the fronteir of what we know how to program” (Reilly 2004, 40-41).

  • INGENIERIA | ENGINEERING:

La ingeniería de inteligencia artificial se ha comparado con la ingeniería del conocimiento. Un "diseño de sistema basado en el conocimiento" de IA abarca 3 niveles: la vista del 'nivel de conocimiento' de un sistema basado en el conocimiento describe el conocimiento que utiliza e integra ese sistema. La vista de 'nivel de algoritmo' describe el sistema como un algoritmo de búsqueda, configurado a partir de tipos de componentes estándar (por ejemplo, generadores, probadores, parches, propagadores de restricciones, revisores de creencias, etc.). La vista de 'nivel de programa' expresa el sistema en términos de los elementos de los paradigmas de programación existentes (reglas, objetos, procedimientos, etc.) (Tong y Sriram 2012, 8-9)

[English]

Artificial intelligence engineering has been compared to knowledge engineering. A “knowledge based system design” of AI encompasses 3 levels: “the ‘knowledge level’ view of a knowledge-based system describes the knowledge that is used by and embedded in that system. The ‘algorithm level’ view deescribes the system as a search algorithm, configured out of standard component types (e.g., generators, testers, patchers, constraint propagators, belief revisers, etc). The ‘program level’ view expresses the system in terms of the elements of existing programming paradigms (rules, objects, procedures, etc) (Tong and Sriram 2012, 8-9)

  • ECONOMIA Y CIENCIAS SOCIALES | ECONOMICS & SOCIAL SCIENCES:

"Los enfoques de IA se pueden dividir en" IA estrecha "y" IA general ". Los sistemas de IA estrecha realizan tareas individuales en dominios especializados y bien definidos, como el reconocimiento de voz, el reconocimiento de imágenes y la traducción. En contraste, el objetivo a largo plazo de la IA general es crear sistemas que exhiban la flexibilidad y versatilidad de la inteligencia humana en una amplia gama de dominios cognitivos, que incluyen el aprendizaje, el lenguaje, la percepción, el razonamiento, la creatividad y la planificación ”(NITRD 2016, 19).

[English]

“AI approaches can be divided into “narrow AI” and “general AI.” Narrow AI systems perform individual tasks in specialized, well-defined domains, such as speech recognition, image recognition, and translation. In contrast, the long-term goal of general AI is to create systems that exhibit the flexibility and versatility of human intelligence in a broad range of cognitive domains, including learning, language, perception, reasoning, creativi-ty, and planning” (NITRD 2016, 19).

  • ÉTICA Y FILOSOFÍA | ETHICS & PHILOSOPHY:

"Diremos que una entidad es inteligente si tiene un modelo adecuado del mundo (incluido el mundo intelectual de la matemática, la comprensión de sus propios objetivos y otros procesos mentales), si es lo suficientemente inteligente como para responder a una amplia variedad de preguntas sobre la base de este modelo, si puede obtener información adicional del mundo externo cuando sea necesario, y puede realizar tareas en el mundo externo según lo exijan sus objetivos y sus capacidades físicas ”(McCarthy y Hayes 1969, 4)

[English]

“We shall say that an entity is intelligent if it has an adequate model of the world (including the intellectual world of math-ematics, understanding of its own goals and other mental processes), if it is clever enough to answer a wide variety of questions on the basis of this model, if it can get additional information from the external world when required, and can perform such tasks in the external world as its goals demand and its physical abilities permit” (McCarthy and Hayes 1969, 4)

  • DERECHO INTERNACIONAL Y POLÍTICA | INTERNATIONAL LAW & POLIC:

"Un subcampo de la informática relacionado con los conceptos y métodos de inferencia simbólica de una computadora y la representación simbólica del conocimiento que se utilizará para hacer inferencias" (INIS); “La rama de la informática relacionada con el desarrollo de máquinas capaces de realizar actividades que normalmente se cree que requieren un tipo de inteligencia humana. Y, adicionalmente, la capacidad de una computadora u otra máquina para realizar actividades que normalmente se considera que requieren un tipo de inteligencia humana. ”(UNHQ: A / S-15/12 Anexo II, pr. 12 de E, párrafo ( re)).

[English]

“A subfield of computer science concerned with the concepts and methods of symbolic inference by a computer and the symbolic representation of the knowledge to be used in making inferences” (INIS); “The branch of computer science concerned with the devel-opment of machines capable of performing activities that are nor-mally thought to require a human type of intelligence. And, addi-tionally, the ability of a computer or other machine to perform activities normally thought to require a human type of intelli-gence.” (UNHQ: A/S-15/12 Annex II, pr 12 of E, paragraph (d))


4.5.5.2.- DISEÑO ÉTICAMENTE ALINEADO (Una visión para priorizar el bienestar humano con sistemas autónomos e inteligentes) | ETHICALLY ALIGNED DESIGN (A vision for Prioritizing Human Well-being with Autonomous and Intelligent Systems). IEEE.

Este trabajo se publica bajo los auspicios de la Iniciativa Global IEEE sobre Ética de los Sistemas Autónomos e Inteligentes con el propósito de promover la comprensión pública de la importancia de abordar las consideraciones éticas en el diseño de sistemas autónomos e inteligentes.

"Supone un conjunto de principios que ubican a la IA dentro de un marco de derechos humanos con referencias al bienestar, la responsabilidad, la responsabilidad corporativa, el valor por diseño y la IA ética"C4.5.5-2.


[English]

This work is published under the auspices of the IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems for the purposes of furthering public understanding of the importance of addressing ethical considerations in the design of autonomous and intelligent systems.

"It is means a set of principles that place AI within a human rights framework with references to wellbeing, accountability, corporate responsibility, value by design, and ethical AI" C4.5.5-2.



Fig. I A. C4.5.5-3. Web Iniciativa Global IEEE sobre Ética de Sistemas Autónomos e Inteligentes | Web IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems. Crédito imág (IEEE). URL: https://ethicsinaction.ieee.org/


4.5.5.3. El estándar P7000 | The IEEE P7000 standard

El estándar P7000 establece un modelo de proceso mediante el cual los ingenieros y tecnólogos pueden abordar la consideración ética a lo largo de las diversas etapas de inicio, análisis y diseño del sistema. Los requisitos de proceso esperados incluyen la visión de gestión e ingeniería del desarrollo de nuevos productos de IT, la ética informática y el diseño del sistema de IT, el diseño sensible al valor y la participación de los interesados en el diseño ético del sistema de IT.

La Asociación de Estándares de IEEE actualmente tiene catorce proyectos de estándares, la serie de estándares IEEE P7000, en desarrollo para permitir un nivel elevado de confianza entre las personas y la tecnología que se necesita para su uso fructífero y generalizado en nuestra vida diaria.

A medida que el uso y el impacto de los sistemas autónomos e inteligentes se generalizan, es necesario establecer pautas sociales y políticas para que dichos sistemas permanezcan centrados en el ser humano y sirvan a los valores y principios éticos de la humanidad.


[English]

The P7000 standard establishes a process model by which engineers and technologists can address ethical consideration throughout the various stages of system initiation, analysis and design. Expected process requirements include management and engineering view of new IT product development, computer ethics and IT system design, value-sensitive design, and, stakeholder involvement in ethical IT system design.

The IEEE Standards Association currently has fourteen standards projects, the IEEE P7000 series of standards, under development to allow for an elevated level of trust between people and technology that is needed for its fruitful, pervasive use in our daily lives. 

As the use and impact of autonomous and intelligent systems become pervasive, there is a need to establish societal and policy guidelines in order for such systems to remain human-centric, serving humanity’s values and ethical principles.


Proceso modelo para abordar inquietudes éticas durante el diseño del sistema | Model Process for Addressing Ethical Concerns During System Design


P70XX: (01,02... 14)


  1. Transparencia de sistemas autónomos | Transparency of Autonomous Systems
  2. Proceso de privacidad de datos | Data Privacy Process 
  3. Consideraciones de sesgo algorítmico | Algorithmic Bias Considerations 
  4. Norma sobre Gobierno de Datos de Niños y Estudiantes | Standard on Child and Student Data Governance 
  5. Norma sobre gobierno de datos del empleador | Standard on Employer Data Governance 
  6. Grupo de trabajo sobre el agente de AI de datos personales estándar | Standard on Personal Data AI Agent Working Group
  7. Norma ontológica para sistemas de automatización y robótica con ética | Ontological Standard for Ethically driven Robotics and Automation Systems
  8. Estándar para empujar éticamente para sistemas robóticos, inteligentes y autónomos | Standard for Ethically Driven Nudging for Robotic, Intelligent and Autonomous Systems
  9. Norma para el diseño a prueba de fallos de sistemas autónomos y semiautónomos | Standard for Fail-Safe Design of Autonomous and Semi-Autonomous Systems
  10. Estándar de métricas de bienestar para inteligencia artificial ética y sistemas autónomos | Wellbeing Metrics Standard for Ethical Artificial Intelligence and Autonomous Systems
  11. Proceso de identificación y calificación de la confiabilidad de las fuentes de noticias | Process of Identifying and Rating the Trustworthiness of News Sources 
  12. Términos de privacidad personal legibles por máquina | Machine Readable Personal Privacy Terms
  13. Estándares para la tecnología de análisis facial automatizado | Standards for Automated Facial Analysis Technology 
  14. Norma para consideraciones éticas en la empatía emulada en sistemas autónomos e inteligentes | Standard for Ethical considerations in Emulated Empathy in Autonomous and Intelligent Systems

Bibliografía | Bibliografy


[C4.5.5-1] Web ieee.org. [Recuperado (05/09/2019) de: https://www.ieee.org/about/index.html]

[C4.5.5-2] Rossi, F. (6.2.2019). Building Trust In Artificial Intelligence. Columbia SIPA | Journal of International Affairs. [Recuperado (05/09/2019) de: https://jia.sipa.columbia.edu/building-trust-artificial-intelligence



© 2019. Licencia de uso y distribución / License for use and distribution: [ Los estados de la inteligencia artificial (IA) | The states of artificial intelligence (AI) ] creative commons CC BY-NC-ND |ISSN 2695-3803|

Back to top