Capítulo 4-3º / Chapter 4-3º

Economía y antirreglas de la ética / Economy and anti-rules of ethics


Autor / Author: Juan Antonio Lloret Egea |eu-ai-alliance-3_0.pngMiembro de la Alianza Europea para la IA / Member to the European AI Alliance | ORCID iD iconhttps://orcid.org/0000-0002-6634-3351|| Escrito / Writed: 16/07/2019. Actualizado / Updated: 18/08/2019 |

© 2019. Licencia de uso / License for use: [ Los estados de la inteligencia artificial (IA) | The states of artificial intelligence (AI) ] Creative Commons CC BY-NC-ND |ISSN 2695-3803 | Preprint DOI 10.13140/RG.2.2.35091.84006 |


Fig. I A . C4.3.1- Crédito imag. (Art Direction & Motion Graphics Design: Alexia Barakou Sound design: Panagiotis Papagiannopoulos & Alexis Koukias-Pantelis Narration: Pavlos Zafiropoulos). URL: https://youtu.be/zXOt7FfzF20

https://eeas.europa.eu/sites/eeas/files/joint_report_on_disinformation.pdf Source: from INVESATIGATE EUROPE. URL El País: http://cort.as/-MMRW


4.3.1.- Una economía ética para la IA / An ethical economy for AI

Sobre el DeNederlandscheBank vamos a coger un punto de apoyo y fijar la mirada sobre la ética del mundo financiero en el uso de la IA / On the DeNederlandscheBank we will take a foothold and look at the ethics of the financial world in the use of AI

DNB es miembro de la Junta Única de Resolución en Bruselas, que tiene un papel de liderazgo en la resolución de los bancos europeos directamente bajo la supervisión del BCE y los bancos que operan en más de un país. (De la web de DeNederlandscheBank).

Pautas del DNB para el uso de inteligencia artificial:

Un uso responsable de la IA en los servicios financieros significa que las empresas deben prestar la debida atención a los aspectos de solidez, responsabilidad, equidad, ética, habilidades y transparencia de las aplicaciones que desarrollan. Hemos redactado directrices para el uso de IA.4.3-1

Éste es el mensaje principal de debate del documento4.3-1"Principios generales para el uso de la Inteligencia Artificial en el sector financiero 4.3-2"... Y ahora traigamos a la memoria las pautas de la UE para una Ética para la Inteligencia Artificial Confiable:

1.-Agencia humana y supervisión. 2.-Robustez y seguridad. 3.-Privacidad y gobierno de datos. 4.-Transparencia. 5.-Diversidad, no discriminación y equidad. 6.-Bienestar social y ambiental. 7.-Responsabilidad.

¿Se parecen o existe alguna similitud? No mucha. En el título sólo podemos encontrar la equidad y la transparencia. Lo que en principio, en mi opinión, denota poca homogenidad en el trabajo conjunto de ambos.

Lo más interesante quizá sea la llamada al debate que efectúa el DNB en el documento, y hemos de suponer que no existan finalmente pautas diferentes para cada órgano o estructura en Europa. De lo contrario, los ciudadanos nos encontraremos con algo similar a lo que ya sucede con el carné de identidad, pasaporte, carné de conducir, de la Seguridad Social y un largo ect. (¿y no bastaría con un sólo carné en la era digital?)... Lo que nos conducirá a una complejidad superior al uso de la propia IA en sí. Supongamos que finalmente la inteligencia humana sea eficiente y lo evite. Confiemos pues.

El DNB textualmente (tradución por medio) indica:

DNB utilizará este documento de debate, y los comentarios recibidos, para entablar un diálogo con el sector financiero holandés en los próximos meses. Informaremos sobre el resultado de este proceso en el curso de 2020(4.3-2). Y ofrecen un correo de contacto, ai@dnb.nl


[English]

DNB is a member of the Single Resolution Board in Brussels, which has a leading role in the resolution of European banks directly under the supervision of the ECB and banks operating in more than one country. (From the DeNederlandscheBank website).

DNB guidelines for the use of artificial intelligence:

“A responsible use of AI in financial services means that firms should pay due attention to the soundness, accountability, fairness, ethics, skills and transparency of the applications they develop. We have written guidelines for the use of AI".4.3-1

This is the main message of the discussion paper4.3-1General principles for the use of Artificial Intelligence in the financial sector4.3-2... And now let me recall the Ethics Guidelines for Trustworthy Artificial Intelligence:

«1.-Human agency and oversight. 2.-Robustness and safety. 3.-Privacy and data governance. 4.-Transparency. 5.-Diversity, non-discrimination and fairness. 6.-Societal and environmental well-being. 7.-Accountability».

Do they look alike or is there any similarity? Not many. In the title we can only find equity and transparency. What in principle, in my opinion, denotes little homogeneity in the joint work of both.

The most interesting thing is perhaps the call to debate carried out by the DNB in the document, and we must assume that there are not finally different guidelines for each organ or structure in Europe. Otherwise, citizens will find something similar to what already happens with the identity card, passport, driver's license, Social Security and a long ect. (And it would not be enough with a single  ID card in the digital age?)... Which will lead us to a complexity higher to the use of the AI itself. I suppose finally human intelligence is efficient and avoids it. Let us trust then.

The DNB textually indicates:

"DNB will use this discussion paper, and the comments received, to engage in a dialogue with the Dutch financial sector over the coming months. We will report on the outcome of this process in the course of 2020"4.3-2.  And offer a contact email, ai@dnb.nl. 


pexels-photo-982334.jpeg


Fig. I A . C4.3.2- Crédito imag. (sujin s). URL: https://www.pexels.com/pt-br/foto/982334/?utm_content=attributionCopyText&utm_medium=referral&utm_source=pexels


4.3.2.- Rompiendo las reglas con la IA, imágenes y noticias falsas / Breaking the rules with AI, images and fake news (& DeepFakes)

«Recordemos, por ejemplo, DeepNude4.3-3. Su misión era desnudar a una mujer mediante inteligencia artificial. / Recall, for example, DeepNude4.3-3. His mission was to undress a woman by artificial intelligence».



Fig. I A . C4.3.3- Crédito imag. ( h50 Digital policial).  URL El País: http://cort.as/-MKvV

Vayamos primero quizá con la regla infringida más grave: con la difusión no consentida de imágenes privadas y su desencadenante; que supone una aplicación gravísima de la inteligencia artificial sobre el ser humano. Pero antes, sobre esto, nos dice Wikipedia4.3-4:

«La difusión no consentida de imágenes privadas, mal llamada porno vengativo o pornografía vengativa, es la publicación de contenidos, generalmente imágenes con contenido sexual explícito o sugerente, sin el consentimiento del individuo que aparece representado.

» Las imágenes con contenido sexual son típicamente distribuidas en los medios de masas como Internet, tanto por exparejas como por desconocidos con acceso no autorizado a imágenes y grabaciones íntimas de la víctima. Muchas de las fotografías son tomadas por las propias personas que aparecen en ella (selfies). Las imágenes suelen ir acompañados de información personal, incluyendo el nombre completo del individuo en la foto o vídeo, enlaces a Facebook, los perfiles y las direcciones de las redes sociales.

» La difusión no consentida de imágenes privadas, al someter a la víctima a una situación de exposición no consentida de su sexualidad, se considera como violencia sexual, aunque no sea física, sino psicológica. Los casos reportados muestran consecuencias que pueden llegar a ser muy graves para la víctima, con perjuicios en su derecho al honor y trastornos graves en su vida familiar y laboral. Esta modalidad de agresión afectan mayoritariamente a las mujeres, ya que la exposición de la vida íntima y preferencias sexuales es una forma de desvalorización de las mujeres en tanto tales»4.3-4.

Lo que implica una agresión grave sobre las personas sin género de duda alguna. Recordemos, por ejemplo, DeepNude4.3-3. Su misión era desnudar a una mujer mediante inteligencia artificial. (Personalmente siempre advierto de estos peligros, pero cada uno hace de su vida...).

Algo similar con el uso de la inteligencia artificial está ocurriendo también con los deepfakes políticos.

Deepfake o ultrafalso es un acrónimo del inglés formado por las palabras fake, falsificación, y deep learning, aprendizaje profundo. Es una técnica de inteligencia artificial que permite editar videos falsos de personas que aparentemente son reales, utilizando para ello algoritmos de aprendizaje no supervisados, conocidos en español como RGAs (Red generativa antagónica), y vídeos o imágenes ya existentes.El resultado final de dicha técnica es un video muy realista, aunque ficticio4.3-5.

Un ejemplo conocido es el de Obama, del actor y director estadounidense Jordan Peele. Presenta al expresidente estadounidense hablando sobre los peligros de la desinformación y las noticias falsas. Jordan Peele transfirió sus propias expresiones faciales a las características de Obama utilizando la tecnología Deep Fake.

Usando la técnica de cambio de rostro, por ejemplo, uno podría crear una imitación profunda de Donald Trump superponiendo la cara de Trump en un video de Alec Baldwin haciendo una personificación de Trump, de modo que es casi como si Baldwin estuviera usando una máscara de Trump. Afortunandamente se buscan soluciones a esto. Y los investigadores de la UC Berkeley y la USC están compitiendo para crear nuevas técnicas para detectar los vídeos DeepFake de los líderes políticos 4.3-7.


[English]

Let me go first perhaps with the most serious rule infringed: with the non-consensual dissemination of private images and their trigger; which is a very serious application of artificial intelligence on the human being. But first, about this, Wikipedia tells us4.3-4:

The non-consensual dissemination of private images, badly called vindictive porn or vindictive pornography, is the publication of content, generally images with explicit or suggestive sexual content, without the consent of the individual who is represented.

Images with sexual content are typically distributed in mass media such as the Internet, both by ex-partners and by strangers with unauthorized access to images and intimate recordings of the victim. Many of the photographs are taken by the people who appear in it (selfies). The images are usually accompanied by personal information, including the individual's full name in the photo or video, links to Facebook, profiles and addresses of social networks.

The non-consensual dissemination of private images, by subjecting the victim to a situation of non-consensual exposure of their sexuality, is considered sexual violence, even if it is not physical, but psychological. The cases reported show consequences that can be very serious for the victim, with damage to his right to honor and serious disorders in his family and work life. This type of aggression mostly affects women, since the exposure of intimate life and sexual preferences is a way of devaluing women as such.
4.3-4

Which implies an severe aggression on people without any doubt. Recall, for example, DeepNude4.3-3. His mission was to undress a woman by artificial intelligence.

Something similar with the use of artificial intelligence is also happening with political deepfakes.

Deepfake is an acronym for English formed by the words fake and deep learning. It is an artificial intelligence technique that allows you to edit fake videos of people who are apparently real, using unsupervised learning algorithms, known in Spanish as RGAs (antagonistic generative network), and existing videos or images. The final result of this technique is a very realistic, although fictional video4.3-5.

A well-known example is that of Obama, by American actor and director Jordan Peele. Introduce the former US president talking about the dangers of misinformation and false news. Jordan Peele transferred his own facial expressions to Obama's features using Deep Fake technology.

Deepfake is an acronym for English formed by the words fake and deep learning.

Using the face change technique, for example, one could create a deep imitation of Donald Trump by superimposing Trump's face on a video of Alec Baldwin making a personification of Trump, so it is almost as if Baldwin was wearing a mask of Trump. Fortunately, solutions to this are sought. And UC Berkeley and USC researchers are competing to create new techniques to detect DeepFake videos of political leaders 4.3-7.



Fig. I A . C4.3.4-  Obama manipulado te explica los peligros de los vídeos manipulados a lo Jordan Peele. Crédito imag. (Youtube, BuzzFeedVideo ). URL : https://youtu.be/cQ54GDm1eL0


Más información / More information:  URL El País: http://cort.as/-MMBI


Más adelante, cuando hablemos de los lenguajes naturales de programación (en inglés, NLP), mostraremos otras nuevas formas de deepfake mediante la escritura de textos. Por ejemplo el discurso de líderes políticos en la ONU mediante técnicas similares de creación de textos falsos a las empleadas por GPT2 345M (OpenAI)./ Later, when we talk about natural programming languages (NLP), we will show other new forms of deepfake by writing texts. For example, the discourse of political leaders at the UN through similar techniques for creating false texts to those used by GPT2 345M (OpenAI).


En USA ya han legislado, y aplicado normativa sobre este uso delincuente de la inteligencia artificial. ¿Y en España qué pasa, hay legislación específica sobre esto?:

«Pues no, porque lo que se regula no es la tecnología utilizada4.3-7». Y resultan de aplicación los artículos del código penal 173.1, 208 y 205, según nos indican4.3-7.


In USA they have already legislated, and applied regulations on this criminal use of artificial intelligence. And what happens in Spain, is there specific legislation on this?:

"Well, no, because what is regulated is not the technology used4.3-7". And the articles of the Spanish penal code 173.1, 208 and 205 are applicable, as indicated to us4.3-7.


¿Y entretanto qué está sucediendo en Europa? / And in the meantime what is happening in Europe?


En Europa parece que la preocupación sobre las deepfakes (o desinformación) es también una importante realidad. De la web de la UE CONNECT University on "Exploring Deepfakes" extractamos lo siguiente:

Hoy en día, cualquier persona con la tecnología adecuada puede combinar y superponer imágenes y videos existentes en imágenes o videos fuente. Deepfakes se está volviendo más realista y más fácil de producir, ofreciendo una falsificación cualitativamente diferente de cualquier cosa que hayamos visto antes. Se ha descrito como "noticias falsas sobre los esteroides". El potencial para sesgar la información y manipular las creencias de las comunidades en línea es inmenso y sumamente preocupante. ¿Qué pasa con la construcción de confianza con el aumento de falsificaciones profundas? ¿En quien confiamos?4.3-8.


[English]

In Europe it seems that the concern about deepfakes (or disinformation) is also an important reality. From the EU website CONNECT University on "Exploring Deepfakes" we extract the following:

"Nowadays anyone with the right technology can combine and superimpose existing images and videos onto source images or videos. Deepfakes are becoming more realistic and easier to produce, offering forgery that is qualitatively different from anything we have seen before. It has been described as “fake news on steroids”. The potential to skew information and manipulate the beliefs of online communities is immense, and immensely worrying. What about building confidence with the deep fakes rising? In whom do we trust?"4.3-8.



Fig. I A . C4.3.5- Crédito imag. ( UE, Digital Single Market). URL El País: http://cort.as/-ML5C


La desinformación erosiona la confianza en las instituciones y en los medios digitales y tradicionales y perjudica a nuestras democracias (UE) / Disinformation erodes trust in institutions and in digital and traditional media and harms our democracies (UE)