Mes: noviembre 2018

Implicaciones morales del estudio Moral Machine

Javier Gonzalez Vela

Licenciado en Ciencias Físicas por la Universidad Autónoma de Madrid.

 

Desde finales del siglo XX estamos asistiendo a una auténtica revolución tecnológica cuyo impacto en la sociedad es difícil de determinar en toda su extensión, pero cuyos primeros efectos son ya claramente visibles. La aparición de Internet, el despliegue masivo de los dispositivos móviles, la difusión de las redes sociales…, todo ello conlleva cambios de comportamiento profundos. Los avances en la capacidad de computación junto a las nuevas técnicas de tratamiento masivo de datos (que se conocen con el término técnico de “Big Data”) proporcionan las herramientas necesarias para desarrollar sistemas que interactúan con nosotros de manera completamente nueva. Y los avances en robótica y en Inteligencia Artificial nos proporcionan nuevos dispositivos con los que tendremos que acostumbrarnos a convivir. Uno de los ejemplos más significativos, aunque no el único, lo constituyen los coches autónomos, capaces de conducir ellos solos sin requerir asistencia humana: son una muestra de que tanto la inteligencia artificial como los dispositivos que la implementan han alcanzado ya a un nivel de madurez tal que nos obliga a tomar decisiones concretas sobre cuestiones que normalmente abordaríamos de manera intuitiva. El comportamiento básico de las máquinas hay que programarlo, hay que escribirlo, y por tanto hay que especificarle a la máquina los criterios con los que debe comportarse ante determinadas situaciones. Es decir, hay que transcribir a algoritmos ejecutables por una máquina los criterios morales bajo los cuales tomamos determinadas decisiones. Y eso nos obliga a pensar cuáles son esos criterios morales, y por qué escogemos esos y no otros.

Para abordar estas cuestiones surgen iniciativas que, aprovechando las capacidades de Big Data, recaban información de un gran número de personas sobre sus preferencias y decisiones con la idea de utilizar las más extendidas como referencias morales.

Por Big Data entendemos el conjunto de técnicas que permiten hacer un procesado de cantidades ingentes de datos. Estos datos se obtienen ya fácilmente de la interacción con múltiples sistemas que nos rodean, y la capacidad de computación para procesarlos está ya disponible. Big Data te permite por tanto obtener patrones y correlaciones a partir de un número muy elevados de datos, y de ahí extraer conclusiones útiles.

 

Así nos encontramos, por ejemplo, con la encuesta de la Moral Machine elaborada conjuntamente por investigadores del CNRS francés (Centre National de la Recherche Scientifique), el MIT y las universidades de Harvard y de la Columbia Británica, o por el Moral Sense Test realizado por la Universidad de Harvard (y que ya han contestado más de 200.000 personas).

Centrándonos en la Moral Machine, posiblemente la más conocida puesto que han participado cerca de 2,5 millones de personas de 233 países distintos, se presenta vía web un formulario con múltiples escenarios en los que un coche autónomo está en situación de accidente inmediato por atropello, y debe decidir cómo actuar en cada caso, sabiendo que todas las decisiones implican salvar a unos seres y condenar a otros. Se trata de una variante del dilema del tranvía, en la que se presentan varios factores (salvar a personas frente a salvar animales, pasajeros frente a peatones, salvar más vidas frente a salvar menos, personas jóvenes frente a ancianas…, y así hasta nueve), y el participante tiene que elegir cuál es la opción mejor en cada caso. Utilizando el análisis de datos, se procesan todas las respuestas y se obtienen una serie de patrones de conducta, que se pueden agrupar por áreas geográficas, razas, sexos, o cualquier otro parámetro que se considere conveniente. Pero el sistema es aún más detallado, puesto que sitúa a cada persona en una escala comparativa respecto al resto de participantes, e incluso informa de cuáles han sido sus preferencias particulares que le han guiado en sus respuestas. Es indudable que te hace reflexionar sobre tus preferencias, pero… ¿podría un sistema así, al informarte de tus propias preferencias, llegar en un momento dado a condicionarlas? No es solo que te haga reflexionar sobre tus preferencias, sino que de alguna manera te las propone.

Sin entrar en un análisis detallado de los resultados (que se pueden consultar en el siguiente enlace), hay determinadas aspectos que merecen la pena destacarse: existen variaciones individuales importantes, especialmente cuando se considera el sexo y la religiosidad del participante; las preferencias están altamente correlacionadas con variaciones culturales y económicas entre países (considerando tres áreas de países claramente diferenciadas: occidentales, orientales y latinoamericanos); y  además se notan diferencias notables entre culturas individualistas y culturas de colectividad. Pero aun así, en el análisis de los resultados se observan tres criterios que se repiten de manera clara e inequívoca. La gente prefiere mayoritariamente:

  1. salvar antes a las personas que a los animales.
  2. salvar el mayor número posible de vidas.
  3. salvar a personas jóvenes antes que a personas mayores.

Independiente de la valoración que nos merezcan estos criterios, cabe preguntarse si se trata de un método adecuado para establecer unas reglas morales. ¿El hecho de que una mayoría de personas los elijan los determina ya como criterios válidos? Y si fuera así, ¿en qué porcentaje se podría cifrar una mayoría válida?

Y no es que la Moral Machine pretenda establecer de esta manera los criterios (hasta la fecha, el único intento serio lo ha realizó en 2017 la “German Ethics Commision on Automated and Connected Driving“), pero sí intenta proporcionar una referencia válida para ello.

Tal vez si estuviésemos de acuerdo en la existencia de una moral universal válida sería más sencillo responder a estas preguntas, pero más allá de considerar que una elección moralmente correcta es la que maximiza el bien común, no parece haber un consenso claro sobre la existencia o no de una moral universal. Sirva como referencia la encuesta que sobre este tema  The Evolution Institute(*) ha realizado entre 15 autores, entre los que se dan todas las opciones posibles: si, no, quizás…

Tal vez las respuesta a estas dudas se encuentre en las propias conclusiones de los impulsores de la Moral Machine, cuando dicen que «mientras que las preferencias éticas del público no deben ser necesariamente el primer árbitro de una política ética, la intención que tenga la gente de comprar coches autónomos y tolerarlos en las carreteras dependerá de la aceptación de las reglas éticas que se adopten», e igualmente cuando establecen que «antes de permitir que los coches tomen decisiones morales debemos iniciar un debate global para expresar nuestras opiniones a las empresas que diseñarán los algoritmos morales. La MM ha sido desarrollada para iniciar ese debate.»

Sin embargo, el método que utiliza el MIT en su Moral Machine parece ser bastante práctico: es un método eficiente en el sentido de que ofrece unas respuestas razonablemente rápidas y que pueden concitar los mayores acuerdos. Y lo que puede llegar a ser más importante: puede acabar resultando una vía muy cómoda de tomar decisiones. Porque al final a las personas no les gusta tomar decisiones incómodas. Este es un efecto que se ve también claramente en el análisis de los resultados de la Moral Machine: en la variante del escenario en el que para salvar cinco vidas debes activar una palanca que mataría a una persona, el 90% de los encuestados preferiría no tener que activar la palanca.

Las decisiones son incómodas. Pero en el momento en que dispongamos de inteligencias artificiales, que además hayan sido capaces de aprender comportamientos de manera autónoma (y hay que decir que se está avanzando mucho en conseguir que las inteligencias artificiales aprendan rápidamente a partir de su propia experiencia), ¿no resultará muy reconfortante saber que alguien o algo podrá elegir por ti sin miedo a equivocarse? De una manera limpia y eficiente te pueden eximir de toda responsabilidad. ¿No sería ésta una situación que mucha gente encontraría deseable?

Al final podríamos estar sacrificando nuestra responsabilidad en aras de la eficiencia y la comodidad. ¿Nos llevaría esto a que una inteligencia artificial acabase sabiendo mejor que nosotros lo que nos conviene?

(*) The Evolution Institute es una organización sin ánimo de lucro con sede en San Antonio, Florida. Fundada en el año 2010 por David Sloan Wilson, biólogo evolutivo (área de la biología que estudia los cambios de los seres vivos a través del tiempo) y distinguido profesor de ciencias biológicas y antropología en la Universidad de Binghamton, EE.UU. The Evolution Institute busca aplicar la ciencia evolutiva a los problemas sociales. Y a través del proyecto Seshat hace un extenso de técnicas de tratamiento masivo de datos para comprobar hipótesis científicas. (fuente: Wikipedia).

Referencias:

Anónimo (s.f.) Big Data: ¿En qué consiste? Su importancia, desafíos y gobernabilidad. En Power Data. Accesible el 25/11/2017 en https://www.powerdata.es/big-data

Miranda-Saavedra, Diego (2018). De cuando la filosofía rescató a la inteligencia artificial. En Retina. El País. Accesible el 25/11/2018 en (https://retina.elpais.com/retina/2018/10/30/tendencias/1540906405_872503.html#?id_externo_nwl=newsletter_retina20181108

Malo, Pablo (2018) ¿Existe una moral universal?  En Evolución y Neurociencia. Accesible el 25/11/2108 en https://evolucionyneurociencias.blogspot.com/2018/06/existe-una-moral-universal.html

Plaza López, José Ángel. (2018) Bioética. El peligro de vivir en una sociedad digital diseñada para manipular. En Retina. El País. Accesible el 25/11/2017 en https://retina.elpais.com/retina/2018/10/02/tendencias/1538462550_862834.html

Torre, Diego de la y Martín-Peñasco, Jaime (2018) ¿Qué es el aprendizaje profundo? Así es el método de obtención de conocimientos de la Inteligencia Artificial. En Blogthinkbig. Accesible el 25/11/2018 eb  https://blogthinkbig.com/aprendizaje-profundo-inteligencia-artificial

Si desea citar esta página

Gonzalez Vela, Javier (2018).  Implicaciones morales del estudio Moral Machine. En Niaia, consultado el 28/11/2018 en https://www.niaia.es/implicaciones-morales-del-estudio-moral-machine/

El pluralismo como ventaja o inconveniente

Jose Angel Medina

Profesor Psicología Social, del Trabajo y Diferencial UCM. Miembro de Tangente

Las dificultades inherentes a organizaciones o sociedades tienen su raíz en la diversidad de opiniones, pensamientos y formas de comunicarse. A menudo el pluralismo y la diversidad son un inconveniente que afecta a la democracia o a la capacidad de ejecución de objetivos.

Los procedimientos asamblearios y colectivos en los que un conjunto de personas pretende dilucidar cuál es la opción para cumplir sus objetivos, con vocación democrática y participativa y, a menudo, con intenciones orientadas al cambio social, son un espacio y un tiempo donde la diversidad y las dificultades para su encaje en una propuesta conjunta toman un  protagonismo especial.

Estas dificultades, lejos de ser un problema asociado al tipo específico de agrupación y a las personas concretas que la forman, es consustancial a estas agrupaciones. Y, si no se reflexiona y actúa en consecuencia, mostrarán todo su poder incapacitante para avanzar lo que suele dar al traste con los objetivos genéricos de esos colectivos.

Los procesos colectivos tienen algunas características objetivas, (tamaño, dificultad de las metas, sistemas de comunicación dispares, o cultura contraria) que hacen ya nacer esas dificultades. Entre ellas destaca la diferencia como una lógica de articulación compleja y, a menudo, desconocida. Es por eso que una parte importante de la socialización y el aprendizaje de la interacción colectiva se asiente sobre la persuasión, la argumentación y demás técnicas que conllevan el intento de convencer y, por tanto, de hacer desaparecer la diversidad para convertirse en uniformidad.

Las propias ideas que las personas tenemos sobre la construcción colectiva y los procesos de carácter asambleario también pueden influir. Estas asambleas no suelen tener una identidad clara, representan de forma genuina la participación democrática (sean como sean y actúen como actúen), suelen tener una tensión entre la autenticidad del concepto y las posibilidades reales y “sufren” por la dialéctica entre los resultados hacia dentro y hacia fuera.

La participación y la acción colectiva están limitadas en cuanto a tareas y fines, adolecen de una gran cantidad de mitos políticos, en muchas ocasiones desprecian las diferencias de género, sufren la incompetencia colectiva derivada del sistema educativo, tienen problemas para articular la identidad individual y la colectiva y son conductas muy vulnerables. Además están siendo desarrolladas en una cultura entregada a la posmodernidad, en la era del (des)conocimiento, en un ambiento de desigualdad grande y de igual indiferencia.

Conocer los principios que rigen (o pueden regir) la construcción colectiva y los procedimientos asamblearios puede ayudar a construirlos de manera que a pesar de todo esto, se conviertan en herramientas útiles para construir discurso, territorio, acción política y bienestar.

Estos principios son de carácter prescriptivo algunos, y otros de carácter  activo. Han de tener en cuenta que cada acción colectiva tiene una vertiente política (en el más amplio sentido de la palabra) y una vertiente dinámica.

Los objetivos de esta sesión son tres. Por un lado cualificar y conocer cuáles son las dificultades que pueden afectar negativamente a los procesos de construcción colectiva. En segundo lugar conocer los principios colectivos de la acción discursiva y las funciones que se han de cumplir en sus dos vertientes. Y en tercer lugar someter todo esa información al debate.

Bibliografía

Cembranos, F, y Medina, J.A. (2003). Grupos inteligentes: teoría y práctica del trabajo en equipo. Madrid: Editorial Popular.

Klandermans, B. (1994). La construcción social de la protesta y los campos pluriorganizativos.  En E. Laraña y J. Gusfield (Eds.) Los nuevos movimientos sociales: de la ideología a la identidad (pp. 183-220). Madrid: CIS.

Medina, J. A. (2017) El papel de las asambleas en los nuevos movimientos sociales. Democracia, participación, cambio social y necesidades humanas. Madrid, UCM

Sabucedo, J. M. (1988). Participación política. J. Seoane & A. Rodríguez. Psicología política, 165-194.

Tarrés, M.L. (1992) Perspectivas analíticas en la Sociología de la acción colectiva. Estudios Sociológicos, 10, 735-757.

Tarrow, S. (1998). Power in movement. Cambridge: Cambridge University Press.

Si desea citar esta página

Medina, José Ángel (2018).  El pluralismo como ventaja o inconveniente. En Niaia, consultado el 29/10/2018 en https://www.niaia.es/el-pluralismo-como-ventaja-o-inconveniente/

 

La sesión del Seminario se celebra el martes 04/12/2018 en la sala de Juntas de la Facultad de Formación de Profesorado y Educación. Será retransmitida en directo a través de https://uam.adobeconnect.com/profesorado

¿Puede ser constructiva la controversia?

Nacho García Pedraza. Socio de Cooperativa ecosocial Garua. Miembro de Niaiá Cualquier persona que se dedique a la docencia …

Implicaciones morales del estudio Moral Machine

Javier Gonzalez Vela Licenciado en Ciencias Físicas por la Universidad Autónoma de Madrid.   Desde finales del siglo …

El pluralismo como ventaja o inconveniente

Jose Angel Medina Profesor Psicología Social, del Trabajo y Diferencial UCM. Miembro de Tangente Las dificultades inherentes …