4.5.1º
Fig. I A. C4.5.1- La IA está transformando el lugar de trabajo. Pero, ¿qué está en riesgo? | AI is transforming the workplace. But what's at risk?. Crédito imág (). URL: https://pmd.cdn.turner.com/cnn/big/business/2019/04/26/caption/ai-how-we-work-biz-evolved-lon-orig.cnn_2583548_768x432_1300k.mp4
⇦ Ir al índice principal del libro | ⇦ Go to the main index of the book |
Contenidos
|
Contents
|
4.5.1º.- Introducción a la IA empresarial |
4.5.1º.- Introduction to business AI |
4.5.2º.- IA confiable de Google |
4.5.2º.- Google Reliable AI |
4.5.3º.- IA confiable de Microsoft |
4.5.3º.- Microsoft Reliable AI |
4.5.4º.- IA confiable de IBM |
4.5.4º.- IBM Reliable AI |
4.5.5º.- IA confiable de IEEE |
4.5.5º.- IEEE Reliable AI |
Autor / Author: Juan Antonio Lloret Egea |Miembro de la Alianza Europea para la IA / Member to the European AI Alliance |
https://orcid.org/0000-0002-6634-3351|| Escrito / Writed: 05/09/2019. Actualizado / Updated: 05/09/2019 |
© 2019. Licencia de uso / License for use: [ Los estados de la inteligencia artificial (IA) | The states of artificial intelligence (AI) ] Creative Commons CC BY-NC-ND |ISSN 2695-3803 | Preprint DOI 10.13140/RG.2.2.34410.26565 | |
4.5.1.- Introducción a la IA empresarial | Introduction to business AI
Gartner define la inteligencia artificial como "aplicar análisis avanzado y técnicas basadas en la lógica, incluido el aprendizaje automático, para interpretar eventos, apoyar y automatizar decisiones y tomar medidas". Por lo que el aprendizaje automático es un precursor vital para lograr la inteligencia artificial, pero no en sí misma. En otras palabras, la relación entre ML y AI se puede expresar en la siguiente ecuación: Aprendizaje automático + Decisiones + Acción = Inteligencia artificialC4.5.1-1.
Fintech: Financial Technology (en español Tecnología Financiera).
Las oportunidades para fintech se encuentran dentro de la IA aplicada, y su potencial está valorado en $ 1 billón en ahorros de costos para 2030, según un informe de Autonomous Research LLP. En pocas palabras, a medida que la IA reduce el costo para atender a los clientes, puede atender a más clientes. Y como resultado de ML los nuevos aprendizajes conducirán a nuevos datos que impulsarán acciones más inteligentes para aumentar los ingresos. Muy pocas fintechs han llevado la IA a la producción. Se han realizado progresos en procesos operativos como chatbots para la oficina principal, para la oficina central y riesgos de suscripción para la oficina administrativa. Pero la mayoría de las fintechs aún no han aplicado la IA en funciones de nivel superior, como biometría, asistentes de voz y cumplimiento mediante contratos inteligentes.
Dos factores clave impiden que las fintech se den cuenta de todo el potencial de la IA: el sentimiento y el riesgo del consumidor.
En general los consumidores desconfían de la IA en las finanzas. Una encuesta reciente encontró que los consumidores se sienten más cómodos con la cirugía robótica que con el asesoramiento financiero de un asesor automático. Y a diferencia de Amazon, Spotify y Netflix, las fintechs experimentan costos financieros y regulatorios reales para tomar malas decisiones basadas en la inteligencia artificial. Si bien una recomendación de un producto, una canción o una película deficientes puede, en el peor de los casos, provocar un cliente irritado, una decisión de crédito incorrecta conduce a una menor rentabilidad y posibles multas para las fintech y un acceso insuficiente al crédito para los clientes.
Si bien superar el sentimiento del consumidor requerirá educación con el tiempo, hay pasos prácticos que las fintech pueden tomar ahora para abordar el riesgo:
- Comience con casos de uso operacionales en la oficina central y administrativa.
- Adopte la redundancia y la remediación. (Esto significa diseñar procesos que permitan la anulación manual y la corrección de los resultados de IA. Esto le permite verificar que su proceso automatizado se ejecute de la manera que lo desea).
- Monitoree todoC4.5.1-1.
[English]
Gartner defines artificial intelligence as "applying advanced analysis and logic-based techniques, including machine learning, to interpret events, support and automate decisions and take action." So machine learning is a vital precursor to achieve artificial intelligence, but not in itself. In other words, the relationship between ML and AI can be expressed in the following equation: Machine learning + Decisions + Action = Artificial intelligence C4.5.1-1.
Fintech: Financial Technology
Opportunities for fintech are within the applied AI, and its potential is valued at $ 1 billion in cost savings by 2030, according to a report by Autonomous Research LLP. Simply put, as AI reduces the cost to serve customers, it can serve more customers. And as a result of ML the new learning will lead to new data that will drive smarter actions to increase revenue. Very few fintechs have brought AI to production. Progress has been made in operational processes such as chatbots for the main office, for the central office and subscription risks for the administrative office. But most fintechs have not yet applied AI in higher-level functions, such as biometrics, voice assistants and compliance through smart contracts.
Two key factors prevent fintech from realizing the full potential of AI: consumer sentiment and risk.
In general, consumers distrust AI in finance. A recent survey found that consumers feel more comfortable with robotic surgery than with the financial advice of an automatic advisor. And unlike Amazon, Spotify and Netflix, fintechs experience real financial and regulatory costs to make bad decisions based on artificial intelligence. While a recommendation for a poor product, song or movie can, in the worst case, cause an irritated customer, an incorrect credit decision leads to lower profitability and possible fines for fintech and insufficient access to credit for customers.
While overcoming consumer sentiment will require education over time, there are practical steps that Fintech can now take to address risk:
- Start with operational use cases in the central and administrative office.
- Adopt redundancy and remediation. (This means designing processes that allow manual override and correcting AI results. This allows you to verify that your automated process runs as you wish).
- Monitor everything C4.5.1-1.
4.5.1.1.- Estrategias nacionales e internacionales de IA | National and International AI Strategies
05.09.2019. Extraído de la página web | Extracted from the website: National and International AI Strategies. Future of Life Institute. FLI tiene su sede en el área de Boston y agradece la participación de científicos, estudiantes, filántropos y otras personas cercanas y de todo el mundo. Es una organización benéfica y de divulgación que trabaja para garantizar que las tecnologías más poderosas del mañana sean beneficiosas para la humanidad. | 05.09.2019. FLI is headquartered in the Boston area and appreciates the participation of scientists, students, philanthropists and other people nearby and around the world. It is a charity and outreach organization that works to ensure that tomorrow's most powerful technologies are beneficial to humanity.
4.5.1.1.A.- Estrategias internacionales | International Strategies
- Nordic-Baltic Region: Ministers from the Nordic-Baltic region issued a declaration of collaboration on AI.
- United Nations: The UN has numerous ongoing initiatives related to AI including providing guidance on data privacy and on autonomous weapons.
- AI Agreement Between UAE and India: The UAE Minister for AI and Invest India signed a Memorandum of Understanding to establish a partnership.
- International Study Group of Artificial Intelligence: France and Canada are developing a task force to make recommendations on the scope and implementation of the international study group.
- Charlevoix Common Vision for the Future of Artificial Intelligence: Leaders of the G7 agreed to a shared set of commitments for AI in Charlevoix, Canada.
4.5.1.1.B.- Estrategias nacionales | National Strategies
- Australia: Australia has dedicated $29.9 million in the country’s annual budget to promote and guide the development of AI.
- Austria: Austria has an advisory Robot Council that is developing a national AI strategy.
- Canada: Canada has a national AI strategy called the Pan-Canadian Artificial Intelligence Strategy.
- China: China has a national AI strategy, defined under the “New Generation Artificial Intelligence Development Plan.”
- Denmark: Denmark has a digital strategy that includes a focus on AI along with other technologies.
- Estonia: Estonia is developing a legal framework for the use of AI in its country, including a bill on AI liability.
- Finland: Finland has an Artificial Intelligence Programme guided by a steering group under the Ministry of Economic Affairs and Employment.
- France: France has a national strategy for AI called “AI for Humanity,” which is outlined in the “Villani Report”.
- Germany: The German Government adopted its Artificial Intelligence Strategy in November 2018.
- India: India defined a national policy on AI in a working paper titled, “National Strategy for Artificial Intelligence #AIforAll.”
- Ireland: The Irish government has hosted AI workshops and launched a national AI Masters program.
- Italy: Italy has an interdisciplinary AI Task Force launched by the Agency for Digital Italy.
- Japan: Japan has an “Artificial Intelligence Technology Strategy” and has also included AI in its “integrated innovation strategy.”
- Kenya: The Kenyan government created a Blockchain & Artificial Intelligence task force.
- Malaysia: The Malaysian government is developing a National Artificial Intelligence Framework, and establishing Digital Transformation Labs.
- Mexico: The Mexican government supported the creation of the white paper, “Towards an AI Strategy in Mexico: Harnessing the AI Revolution.”
- New Zealand: New Zealand has an AI Forum to connect and advance the country’s AI ecosystem.
- Russia: The Russian government is currently developing an AI R&D national strategy.
- Singapore: Singapore has a national AI program called AI Singapore and is establishing an AI ethics advisory council.
- Saudi Arabia: Saudi Arabia was the first country to grant citizenship to a robot.
- South Korea: South Korea has an Artificial Intelligence Information Industry Development Strategy.
- Sweden: The Swedish government has released a “National Approach for Artificial Intelligence.”
- Tunisia: Tunisia has created an AI Task Force and Steering Committee to develop a national AI strategy.
- United Arab Emirates: The UAE has a national strategy for AI and was the first country to name an AI Minister.
- United States of America: The US launched the American AI Initiative February 2019.
- United Kingdom: The UK government launched a Sector Deal for AI to advance the UK’s ambitions in AI consistent with its Industrial Strategy, and taking into account the advice of the Parliament’s Select Committee on AI.
4.5.1.2.-Principios de la OCDE sobre IA | OECD Principles on AI
De | From: http://www.oecd.org/going-digital/ai/principles/
La recomendación identifica cinco principios complementarios basados en valores para la administración responsable de IA confiable | The recommendation identifies five complementary values-based principles for the responsible stewardship of trustworthy AI:
- La IA debería beneficiar a las personas y al planeta al impulsar el crecimiento inclusivo, el desarrollo sostenible y el bienestar | AI should benefit people and the planet by driving inclusive growth, sustainable development and well-being.
- Los sistemas de IA deben diseñarse de manera que respeten el estado de derecho, los derechos humanos, los valores democráticos y la diversidad, y deben incluir salvaguardas apropiadas, por ejemplo, permitiendo la intervención humana cuando sea necesario, para garantizar una sociedad justa y equitativa. | AI systems should be designed in a way that respects the rule of law, human rights, democratic values and diversity, and they should include appropriate safeguards – for example, enabling human intervention where necessary – to ensure a fair and just society.
- Debe haber transparencia y divulgación responsable en torno a los sistemas de inteligencia artificial para garantizar que las personas entiendan los resultados basados en inteligencia artificial y puedan desafiarlos. | There should be transparency and responsible disclosure around AI systems to ensure that people understand AI-based outcomes and can challenge them.
- Los sistemas de IA deben funcionar de manera sólida, segura y segura a lo largo de sus ciclos de vida y los riesgos potenciales deben evaluarse y gestionarse continuamente. | AI systems must function in a robust, secure and safe way throughout their life cycles and potential risks should be continually assessed and managed.
- Las organizaciones y las personas que desarrollan, implementan u operan sistemas de inteligencia artificial deben ser responsables de su correcto funcionamiento de acuerdo con los principios anteriores. | Organisations and individuals developing, deploying or operating AI systems should be held accountable for their proper functioning in line with the above principles.
Contenidos |
Contents
|
4.5.2.4.- Fomento de la confianza en la Inteligencia Artificial |
4.5.2.4.- Building Trust In Artificial Intelligence
|
4.5.1.3.- Fomento de la confianza en la Inteligencia Artificial | Building Trust In Artificial Intelligence
Autora | Author: Francesca Rossi | (Líder Global de Ética de la IA en IBM Research, profesora de Ciencias de la Computación en la Universidad de Padua, Italia (con licencia) y miembro del Grupo de Expertos de Alto Nivel en Inteligencia Artificial de la Comisión Europea). | (IA Global Ethics Leader in IBM Research, Professor of Computer Science at the University of Padua, Italy (licensed) and member of the High Level Group of Artificial Intelligence Experts of the European Commission). Extracto del artículo de fecha Y publicado en | And published in: Columbia SIPA | Journal of International Affairs. (Una revista líder revisada por pares publicada por la Escuela de Asuntos Internacionales y Públicos de la Universidad de Columbia. | (A leading peer-reviewed journal published by the University of Columbia School of International and Public Affairs)C4.5.1-2.
La IA podemos clasificarla en dos áreas principales de investigación. Estas dos líneas de investigación y formas de pensar sobre la IA se combinan cada vez más para maximizar las ventajas de ambos y mitigar sus inconvenientes. Una se basa en reglas, lógica y símbolos; es explicable, y siempre encuentra una solución correcta para un problema dado (si ese problema se ha especificado correctamente). Sin embargo sólo se puede usar cuando se pueden prever todos los escenarios posibles para el problema en cuestión. La otra área de investigación, se basa en ejemplos, análisis de datos y correlación. Se puede aplicar en casos donde hay una noción incompleta o mal definida del problema a resolver. Este tipo de IA requiere una gran cantidad de datos, generalmente es menos explicable y siempre hay un pequeño margen de error.
La convergencia de algoritmos mejorados y una gran potencia informática y grandes cantidades de datos proporcionan a los sistemas de IA capacidades de percepción a nivel humano como voz a texto, comprensión de texto, interpretación de imágenes, etc para los que los métodos de aprendizaje automático son adecuados. Las aplicaciones típicas en la IA empresarial son los sistemas de soporte de decisiones para médicos, educadores, operadores de servicios financieros que necesitan tomar decisiones complejas basadas en bigdata. Una tecnología tan poderosa también plantea algunas preocupaciones como su capacidad para tomar decisiones importantes de una manera que los humanos la percibieran como justa, para ser conscientes y alineados con los valores humanos que son relevantes para los problemas que se abordan, y la capacidad de explicar su razonamiento y toma de decisiones.
Según un estudio realizado por el Instituto de Valor Empresarial de IBM el 82% de todas las empresas y el 93% de las empresas de alto rendimiento ahora están considerando o avanzando con la adopción de IA, atraídos por la capacidad de la tecnología para generar ingresos, mejorar el servicio al cliente, reducir costos y gestionar el riesgo. Sin embargo, aunque se dan cuenta de los enormes beneficios de esta tecnología, el 60% de esas compañías temen problemas de responsabilidad y el 63% dice que carecen de las habilidades para aprovechar el potencial de la IA.
Principios de alto nivel para la IA
Tanto los investigadores como los pensadores de políticas están luchando con las preguntas mencionadas anteriormente. Como resultado de esta discusión en curso, se han definido y evaluado públicamente varios principios rectores de alto nivel sobre el diseño, desarrollo y uso de IA:
- Los principios de confianza y transparencia de IBM: AI debería aumentar la inteligencia humana en lugar de reemplazarla, la confianza es clave para la adopción y las políticas de datos deben ser transparentes.
- Los principios de Google sobre IA: la IA debería proteger la privacidad y ser socialmente beneficiosa, justa, segura y responsable ante las personas.
- Los principios de IA de Asilomar: esbozados en la Conferencia de Asilomar de 2017, estos 23 principios cubren la investigación, la ética y los valores en IA, además de cuestiones a largo plazo. Los principios han sido firmados por 1.273 investigadores y otras 2.541 partes interesadas.
- Los principios de la Asociación para la IA (PAI): ocho principios para un entorno abierto y colaborativo para discutir las mejores prácticas de IA, la responsabilidad social de las empresas que ofrecen IA, la explicabilidad de la IA y la confianza. Cada socio que quiera unirse al PAI debe registrarse en estos principios.
- Los principios del Foro Económico Mundial para la IA ética: cinco principios que cubren el propósito de la IA, su equidad e inteligibilidad, la protección de datos, el derecho de todos a explotar la IA para su bienestar, así como la oposición a las armas autónomas.
- Principios generales del Instituto de Ingenieros Eléctricos y Electrónicos: un conjunto de principios que ubican a la IA dentro de un marco de derechos humanos con referencias al bienestar, la responsabilidad, la responsabilidad corporativa, el valor por diseño y la IA ética.
Implementación práctica de principios de alto nivel
Dichos principios son un primer paso importante, pero estas conversaciones deben ser seguidas por acciones concretas para implementar soluciones viables.
- Explicabilidad: las empresas y los usuarios quieren sistemas de IA que sean transparentes, explicables, éticos, debidamente capacitados con los datos apropiados y sin sesgos.
- Conciencia de sesgo y mitigación: la detección y mitigación de sesgos también son fundamentales para lograr la confianza en la IA. El sesgo se puede introducir a través de los datos de entrenamiento, cuando no es lo suficientemente equilibrado e inclusivo, pero también se puede inyectar en el modelo de IA de muchas otras maneras. Es importante ayudar a los desarrolladores a darse cuenta de lo que está disponible y se puede usar en los sistemas de IA actuales debido a la abundancia de métricas de sesgo, nociones de equidad y algoritmos de mitigación y detección de sesgos. [Con ese fin IBM ha puesto a disposición de la comunidad de código abierto un conjunto de herramientas llamado 'AI Fairness 360' para ayudar a los desarrolladores y científicos de datos a verificar y mitigar el sesgo en los modelos de IA utilizando soluciones de manejo de sesgos, y apoyándolos con pautas, conjuntos de datos, tutoriales, métricas y algoritmos].
- Confiando en los productores de IA: la confianza en la tecnología debe complementarse con la confianza en quienes producen la tecnología. Y las capacidades de explicabilidad deben describirse y ponerse a disposición de todos los usuarios. [IBM han lanzado un conjunto de capacidades de confianza y transparencia para la IA, diseñadas en torno a tres principios básicos: explicabilidad, equidad y trazabilidad. IBM ha propuesto la idea de una "hoja informativa de IA" donde los desarrolladores deben registrar todas las decisiones de diseño y las propiedades de rendimiento del sistema de IA desarrollado, desde los algoritmos de manejo de sesgos hasta los conjuntos de datos de capacitación y las herramientas explicables, etc. Además, para ayudar a los desarrolladores y diseñadores a pensar sobre estos temas, IBM ha lanzado un folleto, llamado "Ética cotidiana para la inteligencia artificial", para sensibilizar a los desarrolladores y diseñadores sobre estos temas y ayudarlos a pensar y encontrar soluciones para capacidades relacionadas con la confianza en su trabajo diario].
- Conducción y facilitación de AI confiable: también se necesita una fuerte colaboración con los formuladores de políticas y los reguladores. En la UE, la Comisión Europea está adoptando un enfoque múltiple para fomentar el desarrollo responsable y el despliegue de la IA. En los Estados Unidos, algunos han pedido reglas para restringir el diseño y el uso de la IA, aunque todavía no existe un enfoque integral para comprender cuál podría ser el enfoque correcto para el entorno estadounidense.
[English]
AI can be classified into two main areas of research. These two lines of research and ways of thinking about AI are increasingly combined to maximize the advantages of both and mitigate their disadvantages. One is based on rules, logic and symbols; It is explainable, and always finds a correct solution for a given problem (if that problem has been specified correctly). However, it can only be used when all possible scenarios for the problem in question can be foreseen. The other area of research is based on examples, data analysis and correlation. It can be applied in cases where there is an incomplete or poorly defined notion of the problem to be solved. This type of AI requires a large amount of data, it is generally less explainable and there is always a small margin for error.
The convergence of improved algorithms and high computing power and large amounts of data provide AI systems with human-level perception capabilities such as voice to text, text comprehension, image interpretation, etc. for which machine learning methods are adequate. Typical applications in business AI are decision support systems for doctors, educators, financial services operators who need to make complex decisions based on bigdata. Such a powerful technology also raises some concerns such as its ability to make important decisions in a way that humans perceived as fair, to be aware and aligned with human values that are relevant to the problems being addressed, and the ability to explain your reasoning and decision making.
According to a study by the IBM Business Value Institute, 82% of all companies and 93% of high-performance companies are now considering or moving forward with the adoption of AI, attracted by the ability of technology to generate revenue, improve customer service, reduce costs and manage risk. However, although they realize the enormous benefits of this technology, 60 percent of those companies fear liability issues and 63% say they lack the skills to harness the potential of AI.
High level principles for AI
Both researchers and policy makers are struggling with the questions mentioned above. As a result of this ongoing discussion, several high-level guiding principles on the design, development and use of AI have been publicly defined and evaluated:
- IBM's principles of trust and transparency: AI should increase human intelligence instead of replacing it, trust is key to adoption and data policies must be transparent.
- Google's principles on AI: AI should protect privacy and be socially beneficial, fair, secure and accountable to people.
- The Asilomar AI principles: outlined at the 2017 Asilomar Conference, these 23 principles cover research, ethics and values in AI, as well as long-term issues. The principles have been signed by 1,273 researchers and 2,541 interested parties.
- The principles of the Association for AI (PAI): eight principles for an open and collaborative environment to discuss the best practices of AI, the social responsibility of companies offering AI, the explainability of AI and trust. Each partner who wants to join the MYP must register on these principles.
- The principles of the World Economic Forum for ethical AI: five principles that cover the purpose of AI, its equity and intelligibility, data protection, everyone's right to exploit AI for their well-being, as well as the opposition to weapons autonomous.
- General principles of the Institute of Electrical and Electronic Engineers: a set of principles that place AI within a human rights framework with references to well-being, responsibility, corporate responsibility, value by design and ethical AI.
Practical implementation of high level principles
These principles are an important first step, but these conversations must be followed by concrete actions to implement viable solutions.
- Explanation: companies and users want AI systems that are transparent, explainable, ethical, properly trained with the appropriate data and without bias.
- Awareness of bias and mitigation: the detection and mitigation of biases are also essential to achieve confidence in AI. Bias can be introduced through training data, when it is not sufficiently balanced and inclusive, but it can also be injected into the AI model in many other ways. It is important to help developers realize what is available and can be used in current AI systems due to the abundance of bias metrics, notions of equity and mitigation and bias detection algorithms. [To that end, IBM has made a set of tools called 'AI Fairness 360' available to the open source community to help developers and data scientists verify and mitigate bias in AI models using management solutions. biases, and supporting them with guidelines, data sets, tutorials, metrics and algorithms].
- Trusting AI producers: trust in technology must be complemented with trust in those who produce the technology. And the explainability capabilities must be described and made available to all users. [IBM has launched a set of trust and transparency capabilities for AI, designed around three basic principles: explainability, equity and traceability. IBM has proposed the idea of an "AI fact sheet" where developers should record all design decisions and performance properties of the AI system developed, from bias management algorithms to training data sets and explainable tools, etc. In addition, to help developers and designers think about these issues, IBM has launched a booklet, called "Everyday Ethics for Artificial Intelligence," to raise awareness among developers and designers about these issues and help them think and find solutions for capabilities. related to trust in their daily work].
- Driving and facilitating reliable AI: strong collaboration with policy makers and regulators is also needed. In the EU, the European Commission is adopting a multiple approach to promote responsible development and AI deployment. In the United States, some have asked for rules to restrict the design and use of AI, although there is still no comprehensive approach to understanding what the right approach could be for the American environment.
Bibliografía | Bibliografy
[C4.5.1-1] Decosmo, J. (9.8.2019). How Fintechs Can Leverage Artificial Intelligence. Forbes Technology Council. [Recuperado (05/09/2019) de: https://www-forbes-com.cdn.ampproject.org/c/s/www.forbes.com/sites/forbestechcouncil/2019/08/09/how-fintechs-can-leverage-artificial-intelligence/amp/ ]
[C4.5.1-2] Rossi, F. (6.2.2019). Building Trust In Artificial Intelligence. Columbia SIPA | Journal of International Affairs. [Recuperado (05/09/2019) de: https://jia.sipa.columbia.edu/building-trust-artificial-intelligence
© 2019. Licencia de uso y distribución / License for use and distribution: [ Los estados de la inteligencia artificial (IA) | The states of artificial intelligence (AI) ] creative commons CC BY-NC-ND |ISSN 2695-3803|
- Notas legales / Legal notes
- Página web de Formaempleo / Formaempleo website
- Formulario de contacto / Contact Form