Categoría: Problemas Morales

Implicaciones morales del estudio Moral Machine

Javier Gonzalez Vela

Licenciado en Ciencias Físicas por la Universidad Autónoma de Madrid.

 

Desde finales del siglo XX estamos asistiendo a una auténtica revolución tecnológica cuyo impacto en la sociedad es difícil de determinar en toda su extensión, pero cuyos primeros efectos son ya claramente visibles. La aparición de Internet, el despliegue masivo de los dispositivos móviles, la difusión de las redes sociales…, todo ello conlleva cambios de comportamiento profundos. Los avances en la capacidad de computación junto a las nuevas técnicas de tratamiento masivo de datos (que se conocen con el término técnico de “Big Data”) proporcionan las herramientas necesarias para desarrollar sistemas que interactúan con nosotros de manera completamente nueva. Y los avances en robótica y en Inteligencia Artificial nos proporcionan nuevos dispositivos con los que tendremos que acostumbrarnos a convivir. Uno de los ejemplos más significativos, aunque no el único, lo constituyen los coches autónomos, capaces de conducir ellos solos sin requerir asistencia humana: son una muestra de que tanto la inteligencia artificial como los dispositivos que la implementan han alcanzado ya a un nivel de madurez tal que nos obliga a tomar decisiones concretas sobre cuestiones que normalmente abordaríamos de manera intuitiva. El comportamiento básico de las máquinas hay que programarlo, hay que escribirlo, y por tanto hay que especificarle a la máquina los criterios con los que debe comportarse ante determinadas situaciones. Es decir, hay que transcribir a algoritmos ejecutables por una máquina los criterios morales bajo los cuales tomamos determinadas decisiones. Y eso nos obliga a pensar cuáles son esos criterios morales, y por qué escogemos esos y no otros.

Para abordar estas cuestiones surgen iniciativas que, aprovechando las capacidades de Big Data, recaban información de un gran número de personas sobre sus preferencias y decisiones con la idea de utilizar las más extendidas como referencias morales.

Por Big Data entendemos el conjunto de técnicas que permiten hacer un procesado de cantidades ingentes de datos. Estos datos se obtienen ya fácilmente de la interacción con múltiples sistemas que nos rodean, y la capacidad de computación para procesarlos está ya disponible. Big Data te permite por tanto obtener patrones y correlaciones a partir de un número muy elevados de datos, y de ahí extraer conclusiones útiles.

 

Así nos encontramos, por ejemplo, con la encuesta de la Moral Machine elaborada conjuntamente por investigadores del CNRS francés (Centre National de la Recherche Scientifique), el MIT y las universidades de Harvard y de la Columbia Británica, o por el Moral Sense Test realizado por la Universidad de Harvard (y que ya han contestado más de 200.000 personas).

Centrándonos en la Moral Machine, posiblemente la más conocida puesto que han participado cerca de 2,5 millones de personas de 233 países distintos, se presenta vía web un formulario con múltiples escenarios en los que un coche autónomo está en situación de accidente inmediato por atropello, y debe decidir cómo actuar en cada caso, sabiendo que todas las decisiones implican salvar a unos seres y condenar a otros. Se trata de una variante del dilema del tranvía, en la que se presentan varios factores (salvar a personas frente a salvar animales, pasajeros frente a peatones, salvar más vidas frente a salvar menos, personas jóvenes frente a ancianas…, y así hasta nueve), y el participante tiene que elegir cuál es la opción mejor en cada caso. Utilizando el análisis de datos, se procesan todas las respuestas y se obtienen una serie de patrones de conducta, que se pueden agrupar por áreas geográficas, razas, sexos, o cualquier otro parámetro que se considere conveniente. Pero el sistema es aún más detallado, puesto que sitúa a cada persona en una escala comparativa respecto al resto de participantes, e incluso informa de cuáles han sido sus preferencias particulares que le han guiado en sus respuestas. Es indudable que te hace reflexionar sobre tus preferencias, pero… ¿podría un sistema así, al informarte de tus propias preferencias, llegar en un momento dado a condicionarlas? No es solo que te haga reflexionar sobre tus preferencias, sino que de alguna manera te las propone.

Sin entrar en un análisis detallado de los resultados (que se pueden consultar en el siguiente enlace), hay determinadas aspectos que merecen la pena destacarse: existen variaciones individuales importantes, especialmente cuando se considera el sexo y la religiosidad del participante; las preferencias están altamente correlacionadas con variaciones culturales y económicas entre países (considerando tres áreas de países claramente diferenciadas: occidentales, orientales y latinoamericanos); y  además se notan diferencias notables entre culturas individualistas y culturas de colectividad. Pero aun así, en el análisis de los resultados se observan tres criterios que se repiten de manera clara e inequívoca. La gente prefiere mayoritariamente:

  1. salvar antes a las personas que a los animales.
  2. salvar el mayor número posible de vidas.
  3. salvar a personas jóvenes antes que a personas mayores.

Independiente de la valoración que nos merezcan estos criterios, cabe preguntarse si se trata de un método adecuado para establecer unas reglas morales. ¿El hecho de que una mayoría de personas los elijan los determina ya como criterios válidos? Y si fuera así, ¿en qué porcentaje se podría cifrar una mayoría válida?

Y no es que la Moral Machine pretenda establecer de esta manera los criterios (hasta la fecha, el único intento serio lo ha realizó en 2017 la “German Ethics Commision on Automated and Connected Driving“), pero sí intenta proporcionar una referencia válida para ello.

Tal vez si estuviésemos de acuerdo en la existencia de una moral universal válida sería más sencillo responder a estas preguntas, pero más allá de considerar que una elección moralmente correcta es la que maximiza el bien común, no parece haber un consenso claro sobre la existencia o no de una moral universal. Sirva como referencia la encuesta que sobre este tema  The Evolution Institute(*) ha realizado entre 15 autores, entre los que se dan todas las opciones posibles: si, no, quizás…

Tal vez las respuesta a estas dudas se encuentre en las propias conclusiones de los impulsores de la Moral Machine, cuando dicen que «mientras que las preferencias éticas del público no deben ser necesariamente el primer árbitro de una política ética, la intención que tenga la gente de comprar coches autónomos y tolerarlos en las carreteras dependerá de la aceptación de las reglas éticas que se adopten», e igualmente cuando establecen que «antes de permitir que los coches tomen decisiones morales debemos iniciar un debate global para expresar nuestras opiniones a las empresas que diseñarán los algoritmos morales. La MM ha sido desarrollada para iniciar ese debate.»

Sin embargo, el método que utiliza el MIT en su Moral Machine parece ser bastante práctico: es un método eficiente en el sentido de que ofrece unas respuestas razonablemente rápidas y que pueden concitar los mayores acuerdos. Y lo que puede llegar a ser más importante: puede acabar resultando una vía muy cómoda de tomar decisiones. Porque al final a las personas no les gusta tomar decisiones incómodas. Este es un efecto que se ve también claramente en el análisis de los resultados de la Moral Machine: en la variante del escenario en el que para salvar cinco vidas debes activar una palanca que mataría a una persona, el 90% de los encuestados preferiría no tener que activar la palanca.

Las decisiones son incómodas. Pero en el momento en que dispongamos de inteligencias artificiales, que además hayan sido capaces de aprender comportamientos de manera autónoma (y hay que decir que se está avanzando mucho en conseguir que las inteligencias artificiales aprendan rápidamente a partir de su propia experiencia), ¿no resultará muy reconfortante saber que alguien o algo podrá elegir por ti sin miedo a equivocarse? De una manera limpia y eficiente te pueden eximir de toda responsabilidad. ¿No sería ésta una situación que mucha gente encontraría deseable?

Al final podríamos estar sacrificando nuestra responsabilidad en aras de la eficiencia y la comodidad. ¿Nos llevaría esto a que una inteligencia artificial acabase sabiendo mejor que nosotros lo que nos conviene?

(*) The Evolution Institute es una organización sin ánimo de lucro con sede en San Antonio, Florida. Fundada en el año 2010 por David Sloan Wilson, biólogo evolutivo (área de la biología que estudia los cambios de los seres vivos a través del tiempo) y distinguido profesor de ciencias biológicas y antropología en la Universidad de Binghamton, EE.UU. The Evolution Institute busca aplicar la ciencia evolutiva a los problemas sociales. Y a través del proyecto Seshat hace un extenso de técnicas de tratamiento masivo de datos para comprobar hipótesis científicas. (fuente: Wikipedia).

Referencias:

Anónimo (s.f.) Big Data: ¿En qué consiste? Su importancia, desafíos y gobernabilidad. En Power Data. Accesible el 25/11/2017 en https://www.powerdata.es/big-data

Miranda-Saavedra, Diego (2018). De cuando la filosofía rescató a la inteligencia artificial. En Retina. El País. Accesible el 25/11/2018 en (https://retina.elpais.com/retina/2018/10/30/tendencias/1540906405_872503.html#?id_externo_nwl=newsletter_retina20181108

Malo, Pablo (2018) ¿Existe una moral universal?  En Evolución y Neurociencia. Accesible el 25/11/2108 en https://evolucionyneurociencias.blogspot.com/2018/06/existe-una-moral-universal.html

Plaza López, José Ángel. (2018) Bioética. El peligro de vivir en una sociedad digital diseñada para manipular. En Retina. El País. Accesible el 25/11/2017 en https://retina.elpais.com/retina/2018/10/02/tendencias/1538462550_862834.html

Torre, Diego de la y Martín-Peñasco, Jaime (2018) ¿Qué es el aprendizaje profundo? Así es el método de obtención de conocimientos de la Inteligencia Artificial. En Blogthinkbig. Accesible el 25/11/2018 eb  https://blogthinkbig.com/aprendizaje-profundo-inteligencia-artificial

Si desea citar esta página

Gonzalez Vela, Javier (2018).  Implicaciones morales del estudio Moral Machine. En Niaia, consultado el 28/11/2018 en https://www.niaia.es/implicaciones-morales-del-estudio-moral-machine/

Resolviendo problemas: Hagamos lo que es justo

Ignacio García Pedraza – Félix García Moriyón (miembros Niaiá)

Se trata de un curso, de 15 horas de duración, que se va a celebrar en el marco de la 43ª Escuela de Verano de Acción Educativa, del 2 al 6 de julio, en la Facultad de Formación de Profesorado y Educación de la UAM

Dirigido a profesorado de todos los niveles, para quienes ejercen como profesores en educación formal y no formal.

 

Se pretende sensibilizar al profesorado, en general, sobre la dimensión moral de los problemas que se plantean en los diferentes ámbitos educativos y desarrollar estrategias de resolución de dichos problemas cuando se producen y de creación de comunidades de aprendizaje que minimicen la aparición de esos problemas.

Contenidos de la actividad:

a) Los centros educativos y las aulas como comunidades justas de aprendizaje y como espacios ecosociales.
b) Conflictividad creativa y conflictividad destructiva.
c) La percepción de la dimensión moral de los problemas relacionados con la justicia y el ámbito ecosocial.
d) Las competencias cognitivas y afectivas requeridas para una adecuada resolución de problemas morales.
e) La evaluación del crecimiento moral del alumnado y el profesorado.

El curso seguirá una metodología activa y paricipativa.

Para recabar más información e inscribirse

El sentido moral

La primera sesión del Seminario Permanente de este año, el papel de la razón en la argumentación moral, dio comienzo con una reflexión sobre lo que entendemos por moral, una palabra usada con mucha frecuencia, pero que no siempre entendemos de la misma manera.

Para poder clarificar el significado del término, utilizamos un ejercicio sobre el sentido moral que nos dio bastante juego. Se trataba de analizar en unas cuantas frases de la vida cotidiana para decidir en qué sentido en cada una de ellas se utilizaba la palabra moral. Estas eran las frases

  • El comportamiento de los ultrasur es completamente inmoral.
  • Los jugadores del equipo iban perdiendo tres a cero en el primer tiempo y perdieron completamente la moral antes de empezar el segundo tiempo.
  • Es una auténtica inmoralidad los precios que tienen ahora los pisos.
  • Aunque hacía mal tiempo, los excursionistas mantenían la moral bien alta y esperaban disfrutar del día.
  • Los salarios que cobran algunos altos ejecutivos serán legales pero atentan contra la moral.
  • Para decidir con qué edad se puede ver una película se utilizan criterios morales.
  • Aquellas personas no respetaron las normas más elementales de la moral cívica.
  • La secretaria presentó una denuncia porque se sentía víctima de acoso moral por parte de su jefe.

No era sencillo dar una respuesta precisa, aunque se podía aceptar que, en general, empleamos el adjetivo “moral” para referir a algo que es bueno, de tal modo que decir que un comportamiento, como el de los ultrasur de la primera frase, no es moral es señalar que el comportamiento no es bueno, o no está bien. Mientras que serían morales los comportamientos o situaciones en las que la gente actúa bien. Junto a ese sentido de la palabra, está otro que, en principio, no guarda mucha relación con el anterior: tener moral o mantener la moral se refiere a un rasgo de las personas que en situaciones específicas no pierde el ánimo y siguen intentando alcanzar las metas que se han propuesto.

Ahora bien, esto plantea algunos problemas añadidos. Por un lado, en general es la sociedad la que decide qué comportamientos son moralmente buenos o malos, pero no siempre hay acuerdo al respecto. Al mismo tiempo es nuestra propia conciencia la que determina en última instancia si algo está bien o está mal. Sea la sociedad o la persona individual, no queda claro que siempre acierten: el que toda la sociedad aprueba algo como bueno puede no ser suficiente, y nosotros mismos no siempre acertamos. En el ejercicio citado antes se incluyen unas preguntas que pueden mostrar la dificultad que tenemos para definir lo que es bueno y lo que es malo.

El_fanático Ceguera moral

En algunas ocasiones, el problema fundamental es que las personas ni siquiera son conscientes de que el problema al que tienen que hacer frente tiene una dimensión moral, dimensión que puede, incluso ser más importante que cualquier otra. A veces esta ceguera moral es el resultado de que no se tienen en cuenta los intereses y problemas de otras personas implicadas, que pasan desapercibidas o son invisibles para quienes toman las decisiones, o no se repara en que no todos los medios son moralmente aceptables para alcanzar un fin, y el que este sea bueno no convierte a los medios empleados en buenos. Es importante, por tanto, mejorar nuestra percepción de esa dimensión moral. Zygmunt Baumann se refiere a esta ceguera denunciando la insensibilidad moral y el deterioro moral progresivo que se produce en una sociedad líquida.

Por otra parte, si bien se puede hablar de que existe un cierto acuerdo en torno a los valores fundamentales que guían y orienta la acción moral humana, también es cierto que eso no resulta suficiente cuando afrontamos un problema concreto. No siempre está claro lo que debemos hacer; incluso estando claro, no siempre es sencillo tener el coraje suficiente par hacerlo. Varias son las dificultades que encontramos y por eso resulta imprescindible un adecuado uso de la razón para sopesar lo que es adecuado hacer:

  1. En casi todas las ocasiones pueden existir valores en conflicto (dilemas morales), de tal modo que respetar uno de ellos puede dañar el otro, lo que exige aclarar la preferencia que puede tener un valor sobre otros. Hay un acuerdo universal acerca de que matar es malo moralmente, pero goza de amplia aceptación la posibilidad de matar en legítima defensa.
  2. Pueden estar muy claro cuáles son los objetivos moralmente buenos que se pretenden conseguir, pero con frecuencia las situaciones son complejas y hay que tener en cuenta muchas cosas, siendo capaces además de prever posibles consecuencias negativas de algunas soluciones.Resultado de imagen de prejuicios mafalda
  3. Por último, como ya hemos comentado, la toma de decisiones no se guía siempre por procesos racionales. La idea del elector racional ha sido cuestionada por muchas investigaciones. Estamos condicionados por estereotipos y prejuicios, por sesgos,  intereses no explícitos o mecanismos de defensa…, y todo ello provoca errores en la toma decisiones con consecuencias a veces muy negativas. Todo ello incluye además sentimientos difíciles de controlar que hacen que nuestra argumentación sea con frecuencia deficiente.

La importancia de mejorar la capacidad de argumentación es, por tanto, es innegable.

Si desea citar esta entrada

García Moriyón, F.: El sentido moral. En Niaia, consultado el 26/10/2017 en http://wp.me/p86q9f-kf

La mejora biomédica del comportamiento moral

La mejora del comportamiento ético de las personas ha sido siempre un tema importante en la sociedad en general y en algunos campos específicos como el sistema educativo, o en instituciones penitenciarias o correccionales. El nivel moral importan y cuanto más elevado sea, mejor. Doy por supuesto que hay un cierto acuerdo en los aspectos generales de lo que significa crecer moralmente, pero los acuerdos son menores cuando analizamos el valor moral de una conducta específica. Es, sin embargo, un tema susceptible de potentes indagaciones filosóficas, con sus correspondientes desacuerdos.

En la actualidad, siguiendo un tema que ya aparecía en una película que tuvo una gran resonancia en su momento, La Naranja Mecánica, se han venido planteando modelos de mejora de la conducta en los que, de algún modo, no se tenía en cuenta que el cambio fuera asumido consciente y razonadamente por la persona. Bastaba con que su comportamiento mejorara, lo cual era muy posiblemente beneficioso para la sociedad, pero no tanto para el individuo. La investigación científica en los campos de la bioquímica y la farmacología, entre otros, pero de manera especial en el campo general de la neuroética, no sólo ha hecho posible introducir nuevas prácticas que logran mejoras verificables sino que encuentra claros valedores de su validez moral. Un artículo de Thomas Douglas titulado Moral Enhacement defiende claramente esta posición y Savulesco, uno de los autores de referencia en este tema, junto con Persson, hacen un planteamiento más sencillo, pero no menos contundente: como es un hecho que estamos en una etapa de constante mejora cognitiva de la humanidad, es necesario que al mismo tiempo se preste atención a una mejora moral. En otro artículo importante, estos dos autores, insisten en que es un tema del nuevo campo de las ciencias de la moralidad y en concreto de la neuroética, que, sin duda, obliga a reflexionar sobre al alcance y la fundamentación de dos teorías éticas clásicas, la kantiana y la utilitarista.

 

neuroética

 

Para avanzar en la reflexión sobre tema tan importante, Peter Reiner, profesor y co-fundador del National Core for Neuroethics en la Universidad de British Columbia, ha publicado una interesante información en The Neuroethics Blog, en la que da cuenta de una investigación sobre la actitud del gran público antes la posibilidad de recurrir a procedimientos biomédicos para mejorar el comportamiento moral de las personas. En una investigación bien diseñada en la que ponen el ejemplo de un niño que practica el acoso escolar y al que se le ofrecen dos posibles tratamientos para mejorar su conducta: uno que recurre al uso de fármacos y otro que le hace asistir a unas sesiones apoyadas en videojuegos. Cuando se les pregunta a las personas corrientes cuál de los dos modelos les parece moralmente más aceptable, la mayoría no ve especiales dificultades morales en el tratamiento con videojuegos, aunque sea obligatorio, pero no ven claro que se respeten las normas morales en el uso de medicamentos para lograr esa mejora. Es decir, retomando una tesis clásica de la reflexión moral, no todos los medios son válidos para lograr fines buenos, como señalan en un artículo Focquaert y Shermer.

El punto fuerte de la investigación de Reiner y sus colegas, como subraya en su texto publicado en el blog de neuroética, consiste en destacar que la moral es asunto de enorme importancia en todas las sociedades, por lo que se debe tener en cuenta, al plantear propuestas de intervención para la mejora moral, la necesidad de explorar cómo valora la gente común, la ciudadanía, las propuestas diversas. En este caso, la opinión pública debe estar bien informada y debe participar en los ineludibles debates que las nuevas posibilidades abiertas por la investigación científica ponen a nuestro alcance.

En su artículo, la conclusión es clara: “This study provides empirical evidence that means matter morally. For when it comes to moral enhancement, members of the public generally eschew pharmacological moral bioenhancement yet are open to non-biomedical means to attain moral enhancement. Both the quantitative and the qualitative data confirm that the public disapprove of biomedical interventions for moral enhancement.” Esto es, para el público en general no todo vale cuando se pretende conseguir una mejora de la conducta: las intervenciones biomédicas no son moramente aceptables, entre otras cosas porque no parecen lograr un genuino y sólido crecimiento moral.

En el fondo de esta posición está presente una tesis que es habitualmente defendida por las personas dedicadas a la reflexión ética: ser un agente moral, algo que va implícito en la mejora moral, exige tener en cuenta tanto la dimensión emocional de los sujetos, algo que consigue los medios farmacológicos, como la dimensión cognitiva o racional: los sujetos morales deben saber lo que está bien y además deben saber por qué está bien. Es decir, actuar moralmente exige que podamos dar cuenta y razón de nuestro propio comportamiento. Los medios farmacológicos no parece que logren mejorar esa dimensión cognitiva. Por otra parte, tampoco queda claro que provoquen conductas estables basadas en la decisión libre de las personas, pero la libertad es condición necesaria de la vida moral, tal y como se ha entendido en la tradición filosófica, pero también en la tradición moral de las sociedades.

Si desea citar esta entrada

García Moriyón, F.: La mejora biomédica del comportamiento moral En Niaia, consultado el 20/05/2017 en http://www.niaia.es/La-mejora-biomedica-del-comportamiento-moral/

¿Qué puede aportar la tecnología a la sostenibilidad?

Félix García Moriyón. Grupo de Investigación Niaiá

En el Conversatorio de Otoño, celebrado el pasado 13 de diciembre, en la UAM, el grupo Niaiá invitó a Fernando Cembranos para que abordara los problemas que está planteando el desarrollo, casi exponencial, de las tecnologías. Su intervención formaba parte del trabajo del seminario permanente de este curso académico: El estudio de casos; cómo resolver problemas morales

Fernando Cembranos aceptó el reto y directamente lo dejo claro: la reflexión sobre las tecnologías es, sobre todo, una reflexión moral. Es decir, el desarrollo y uso de la tecnología exige que nos planteemos con rigor en qué clase de mundo queremos llegar a vivir, y eso incluye el mundo social, la biosfera y nosotros mismos. Se trata, por tanto, de problemas genuinamente morales y como tal deben ser afrontados y resueltos.

Lo primero que debemos tener claro, para analizar cualquier caso concreto que se nos presente, es el hecho de que afrontamos una crisis a corto y medio plazo de gran envergadura. No se trata solo del cambio climático, ni siquiera del agotamiento de los recursos, se trata de una crisis global que puede tener un costo enorme. Puede suceder que en unas pocas decenas de años, la población humana sobre la Tierra descienda más de la mitad, en un medio ambiente social, ecológico y económico muy desfavorable. No es extraño que algunos hablen de un “apocalipsis”. ¿Es una visión en exceso negativa? No lo ve así Fernando; más bien es lo que hay. Para afrontar un problema lo primero que hay que hacer es darse cuenta de que tenemos un problema y reconocer cuáles son los rasgos principales del problema.

Apocalipisi tecnológico

Dos son los ejes básicos para empezar a afrontar lo que ocurre. En primer lugar, acabar con un falso optimismo tecnológico. Son muchas las personas que creen que la tecnología podrá resolver cualquier problema; es cuestión de tiempo y de esfuerzo dedicado a la innovación tecnológica, lo que al final permitirá, por ejemplo, una energía inagotable y limpia, una mejora de la alimentación y la salud… Todo lo va a resolver la tecnología. Casi una religión, con sus dogmas y sus clérigos, los técnicos convertidos en tecnócratas o en expertos que asesoran a quienes controlan el poder.

El segundo eje es tomar conciencia de que la tecnología, tal y como se está desarrollando no solo no es parte de la solución sino que es parte del problema. Es decir, el desarrollo tecnológico está generando una sociedad que cada vez está más fuera del control de las personas. La tecnología deja de ser algo neutral y se convierte en algo complejo, con sus propias dinámicas; algo que exige grandes inversiones, por lo que termina estando al servicio de quienes costean los desarrollos tecnológicos, procurando, claro está, que beneficien sus intereses concretos, no los de la humanidad. Muy esquemáticamente, estos es lo que dice el discurso “oficial” sobre la tecnología, ocultando los problemas que está generando y los intereses concretos que está beneficiando:

  • Que es beneficiosa, salvo que se demuestre lo contrario.
  • Que es neutral.
  • Que no se puede parar.
  • Que gracias a la tecnología la historia va de peor a mejor.
  • Que traerá las soluciones adecuadas a los problemas.
  • Que es la principal suministradora de bienestar.

Ese discurso, aun siendo muy incorrecto, ha calado profundamente en la sociedad, lo que pone difícil elaborar alternativas. ¿Implica esto un pesimismo insuperable? Desde luego, la situación es espinosa y algo de eso se desprende desde mi punto de vista, del planteamiento de Cembranos. No obstante, defiende que es posible ofrecer alternativas que avancen hacia una tecnología más de acuerdo con una propuesta de sociedad sostenible y solidaria. En la búsqueda de esas alternativas, tal como exponen en su libro, esto es lo que plantea la sostenibilidad sobre la tecnología:

tecnologia-a-la-sostenibilidad

  • Que existen tecnologías que favorecen la sostenibilidad y tecnologías que la impiden.
  • Que la tecnología debe estar controlada por la comunidad antes que por el mercado.
  • Que no han de causar deterioros en la naturaleza y en la estructura social.
  • Que es necesaria una prudencia estructural. La tecnología tiene que demostrar su bondad y ausencia de perjuicios antes de ponerse en marcha.
  • Que las tecnologías hay que juzgarlas holísticamente.

Cuando afrontamos problemas, cuando tenemos que proponer soluciones, moralmente debemos tener en cuenta esos cinco criterios propuestos desde enfoques de la sostenibilidad.

Mander, J (1996) En ausencia de lo sagrado Palma de Mallorca, José J. de Olañeta Editor

Herrero, Y., Cembranos, F. y Pascual, P. (Coord.): Cambiar las gafas para mirar el mundo. Madrid, Libros en Acción, 2016 (3ª ed.). Para este resumen, he utilizado el Capítulo 4 tecnología v6.doc, La fe ciega en la tecnología

Si desea citar esta entrada

García Moriyòn, F.: ¿Qué puede aportar la tecnología a la sostenibilidad? en Niaia, consultado el 12/01/2017 en http://www.niaia.es/?p=1128&pre-view=true

Implicaciones morales del estudio Moral Machine

Javier Gonzalez Vela Licenciado en Ciencias Físicas por la Universidad Autónoma de Madrid.   Desde finales del siglo …

El pluralismo como ventaja o inconveniente

Jose Angel Medina Profesor Psicología Social, del Trabajo y Diferencial UCM. Miembro de Tangente Las dificultades inherentes …

El papel de la razón en el debate y en la deliberación

Huberto Marraud Profesor titular. UAM La teoría de la argumentación estudia nuestras prácticas argumentativas¸ es decir, …