¿La tecnología puede paliar la Soledad no deseada?

mujer joven con rostro reflejado en smartphone

La soledad se está percibiendo como un problema de nuestros tiempos, aunque ni es nuevo ni hay un consenso claro sobre cómo definirlo ni, por tanto, sobre cómo abordarlo. Lo que sí es nuevo es la irrupción tecnológica, su creciente usabilidad y los riesgos y nuevas oportunidades de socialización que la acompañan.

Para compartir visiones y generar opinión, organizamos encuentros B-Kafe en marzo y abril 2020. A partir de lo que en ellos se refelxione y comparta, sintetizaremos las opiniones en esta misma entrada.

La tecnética y el Mazinger

Mazinger

Continuamente hay una importante novedad tecnológica. El futuro llega sin que nos demos cuenta, y el tsunami tecnológico hace tiempo que nos mojó las rodillas. Toda esta tecnología, ¿para qué? ¿Vamos hacia donde queremos? ¿Adónde nos lleva el tsunami?

La tecnología es neutra, como la magia, que puede ser blanca o negra en función de cómo se utilice. Como decían las últimas palabras de profesor Kabuto, “con el Mazinger Z, uno puede convertirse en un dios o en un demonio”. El profesor Kabuto apenas dejó instrucciones, era Koji, su nieto, el que debía decidir sobre la máquina. Era su responsabilidad. Es la nuestra.

Con el Mazinger Z, uno puede convertirse en un dios o en un demonio

La tecnología debe estar a nuestro servicio, y no al revés. En plan bíblico diremos que no está hecho el hombre para el sábado, sino el sábado para el hombre. Dentro de las contingencias y cambios bruscos de orientación hay que tratar de encauzar el tsunami, sabiendo que habrá más y más disrupciones tecnológicas que afectarán a todos los órdenes de la raza humana. La tecnología debe centrarse en las personas, en satisfacer sus necesidades, en aumentar su calidad de vida en términos profundos, en autonomía, en satisfacción personal, en la relación con otras personas, en términos de participación social.

Deberíamos usar la tecnología para aumentar la cohesión social. Porque una sociedad cohesionada es una sociedad más justa, más sostenible… y en la que es más fácil ser feliz.

Las leyes de Asimov han quedado desfasadas. Hoy las máquinas problamente ya están matando, decidiendo que matan. Seguramente haya un dron sobrevolando Afganistán y “decidiendo” si mata o no, y otras máquinas más amables, como los vehículos autónomos en California Gipuzkoa, también tienen que decidir cuándo dar un volantazo. En el fondo, un coche autónomo es un Terminator con ruedas. ¿Me estrello yo solo, o lo evito y pongo en peligro a otros? ¿Y si los otros tienen antecedentes o están incumpliendo las normas? O, lo que es peor, ¿y si parece un terrorista? Hoy, las máquinas tienen que tomar decisiones para elegir el “mal menor”, y en algunos casos lo tienen que hacer discutiendo entre ellas, lo que puede llevar a resultados no previstos. ¿Cuánto vale la probabilidad de acabar con una vida frente a otras probabilidades y otras vidas? ¿Quién será el responsable del algoritmo que decida este tipo de cosas?

Hay que desarrollar una Tecnética y un Sanedrín reconocido.

Es necesario ya un Sanedrín, un Consejo Ético reconocido que determine estos algoritmos, que elabore una Carta Tecnética para la toma de decisiones de las máquinas.

Entrada original en blog de pr4

Hacia la moral artificial

Coche asesino

Recientemente he matado a una decena de personas y a un par de gatos… participado en el interesantísimo proyecto de MIT Moral Machine (EN), una plataforma para reunir una perspectiva humana en las decisiones morales de la inteligencia artificial, como las que deben tomar ya los coches autónomos.

En esta plataforma, de manera muy visual y como si fuese un videojuego, debemos tomar 13 decisiones a las que se podría llegar a enfrentar un coche autónomo, como ¿debe pegar un volantazo para no atropellar a unos niños no captados por los sensores previamente, y estrellarse contra un muro (contigo dentro)? ¿Influye en la decisión que los niños tengan o preferencia de paso? ¿Y si en vez de niños es gente mayor?

Esas son algunas de las variables introducidas por el MIT (niños/mayores, hombres/mujeres, personas/mascotas, no ladrones/ladrones…) y otras que vendrán, seguro. De aquí surgirá un algoritmo que haga al coche “decidir”, una MORAL determinada por la mayoría, y si vamos jugando con más variables, y a la mayoría no le gusta la gente con sombrero, yo francamente no me acercaría a una carretera con uno puesto. Eso siempre y cuando el algoritmo de MIT sea la religión de la máquina con moral que circule por nuestras carreteras.  ¿Los coches japoneses tendrán el mismo algoritmo, la misma moral? ¿Y los saudíes? No hay una moral universal, ¿pero la tendrán los coches?

He empezado la prueba en modo kantiano, he intentado pasar al modo zen, pero he terminado en modo rambo.

Pero las preguntas más importantes son las introspectivas. En mi caso, cuando he ido tomando decisiones, cuando he matado, lo he intentado a hacer a partir de unos criterios más o menos razonables: minimizar el daño, salvaguardar a quien cumple las normas… pero claro, en el coche me figuro que voy yo, con mi familia, y al final me he sorprendido tomando decisiones instintivas, egoístas. He sido un pequeño dios injusto y casi impredecible.

Afortunadamente solo ha sido un juego.

Entrada original en blog de pr4