(No) Conduciendo Hacia las Nuevas Leyes: Enfoque Permisivo, Legalista y Ético del Desarrollo de Vehículos Autónomos

woman in white jacket sitting on car seat

Desde la invención de los automóviles la humanidad ha tenido dos grandes aspiraciones con respecto a ellos: la primera es el verlos volar, la segunda es que se condujesen solos. Si bien lo primero aún continúa en el imaginario colectivo como un anhelo (aunque los drones han sabido sentar las bases e inspirado las primeras pruebas piloto), la conducción autónoma se encuentra en pleno desarrollo y testeo. Esto último ha sido el andamiaje de debates sobre dos aspectos en particular: la legislación y la ética.

El largo camino de la automatización dio un primer gran paso en 1937, poco más de medio siglo luego de que Carl Benz patentara el primer modelo a combustión interna, cuando General Mortors introdujo la primera trasmisión semiautomática. El proceso continuó entonces de modo evolutivo, adquiriendo cada vez más funciones de asistencia al manejo y a la seguridad. Ya a fines del siglo XX, han sido incorporadas funcionalidades tales como Detección de carriles y Frenos automáticos, disminuyendo notablemente el riesgo de accidentes.

Sin embargo, el desarrollo del auto autónomo no es un cambio producto del proceso evolutivo sino una variación disruptiva, y como tal ha de traer consigo implicancias en los paradigmas de pensamiento y en los marcos conceptuales y legales vigentes.

La primera cuestión es definir qué son vehículos autónomos, entendiéndose como tales aquellos en los cuales es necesaria ninguna o mínima interacción por parte de los humanos. En este sentido, las personas se ven por primera vez ante el dilema de la falta de control en la conducción de automóviles, lo que plantea ¿hasta qué punto cabe entonces su responsabilidad?

Los enfoques actuales

En noviembre de 2020 la Agencia Nacional de Seguridad Vial (NHTSA por sus siglas en inglés), del Departamento de Transporte de los Estados Unidos, ha empezado a esbozar reglas bases sobre las cuales deberán asentarse los marcos regulatorios para los vehículos autónomos ante su inminente desembarco en los próximos años.

Se definió que las acciones legales se deberán focalizar en cuatro aspectos fundamentales(1):

1. La forma en que los vehículos recopilarán información respecto de su entorno.

2. Cómo los vehículos detectarán y clasificarán al resto de los usuarios, infraestructura, señales y condiciones (climáticas y estado de la carretera, entre otros).

3. Cómo se planeará la ruta y cómo tomará las decisiones respecto a los usuarios, infraestructuras y condiciones previamente detectadas.

4. Cómo se controlarán y ejecutarán esas funciones y decisiones.

Paralelamente la Comisión de Servicios Públicos de California (CPUC) ha decidido desarrollar sus propias regulaciones al respecto, estableciendo los objetivos de dos programas para la implementación de vehículos autónomos en el trasporte de pasajeros: uno para vehículos autónomos con asistencia humana y el otro para aquellos completamente autónomo. El CPUC ha definido cuatro claves fundamentales (2):

1. Priorizar de la seguridad de los pasajeros.

2. Expandir y promover los vehículos autónomos para todas las comunidades del Estado.

3. Mejorar la accesibilidad para personas con discapacidades y personas con bajos ingresos.

4. Disminuir la emisión de gases de efecto invernadero.

Posteriormente, en diciembre de 2020, el Departamento de Vehículos del Estado de California ha emitido el primer permiso para la comercialización de vehículos autónomos por fuera de un ecosistema de testeo; restringido sin embargo a la entrega de productos (es decir, aún no está disponible para el trasporte de personas humanas)(3). No obstante, hasta el momento otras siete empresas sí han recibido autorización para programas piloto y de testeo en lo relativo al transporte de pasajeros.

La priorización de la seguridad y las necesidades de expansión y mejora, han dado lugar a dos enfoques contrapuestos, en un mundo relativamente desregulado:

– Enfoque permisivo: el exceso en la priorización de la seguridad se opone a la libertad de experimentación, impidiendo que se pueda innovar de manera más acelerada para alcanzar resultados significativos en los otros campos de interés (e incluso en la misma seguridad como respuesta a la demanda).

– Enfoque legalista: busca una mayor seguridad en el corto plazo, haciendo que el desarrollo de los vehículos autónomos deba encajar dentro de los marcos regulatorios actuales, retrasando así el desarrollo de la industria.

El incremento de costos producto del exceso de regulaciones podría llevar a mayores precios haciendo que estos vehículos sean menos accesibles para personas desfavorecidas y de bajos ingresos (generalmente postergados a la hora de beneficiarse de los desarrollos tecnológicos). La baja rentabilidad acarreada impediría que estos se prueben a sí mismos como más seguros sin un desarrollo en escala. El enfoque permisivo, por su parte, podría llevar a fatalidades que generaran una desconfianza en la sociedad respecto de la tecnología acabando en pérdidas millonarias y suspensiones de proyectos con potencial.

El otro reto: la responsabilidad

En la noche del 18 de marzo de 2018, en las afueras de Tempe, Arizona, Elaine Herzberg una mujer de 49 años murió luego de ser arrollada. Detrás del volante del automóvil iba una mujer mirando de reojo un vídeo en su smartphone.

El siniestro no sería distinto de tantos otros si no fuese por la particularidad de que a bordo del automóvil no iba ningún conductor, sino que el auto era dirigido por un software puntero. El viaje se encontraba enmarcado dentro de los testeos que le habían sido autorizados, por parte de las autoridades estatales, a la empresa Uber tres años antes y la persona que se sentaba detrás del volante era solamente una supervisora.

Elaine se convertiría entonces en la primera víctima causada por un vehículo autónomo (4).

Cabe plantearse quién fue el responsable del siniestro: ¿La supervisora que debía interceder? ¿El desarrollador del software? ¿El fabricante del vehículo? ¿Elaine, quien cruzó imprudentemente y cuya autopsia reveló que había fumado marihuana y metanfetaminas?

Paralelamente una resolución de la Unión Europea de 2018 apuntó a la necesidad de aclarar quién debía asumir la responsabilidad en los casos de accidentes causados por vehículos completamente autónomos, siendo entonces necesario adaptar un marco jurídico e introducir nuevas formas de atribuir responsabilidades (5).

Estos dos antecedentes, requirieron definir qué es un vehículo autónomo. La NHTSA ha adoptado el estándar SAE J3016, que divide a los autos en seis niveles (6):

– Nivel 0 “Sin asistencia al conductor”: las tareas de conducción son realizadas enteramente por el humano.

– Nivel 1 “Con asistencia al conductor”: el humano sigue realizado las tereas de conducción, pero existe autonomía en ciertos movimientos longitudinales o laterales. Ej.: velocidad crucero o función de estacionamiento asistido.

– Nivel 2 “Automatización parcial”: el conductor sigue manejando el vehículo, pero existe una automatización de la conducción de forma longitudinal y lateral, simultáneamente. Ejemplos: frenos de emergencia, mantenimiento de carril, control crucero adaptativo.

– Nivel 3 “Automatización condicionada”: el vehículo es capaz de reaccionar al ambiente y sus eventualidades de manera completa. Es necesario que el usuario esté preparado para intervenir ante un fallo o pérdida de las condiciones de funcionamiento. Ejemplo: manejo autónomo en atascos.

– Nivel 4 “Automatización elevada”: deja de ser necesario que el usuario esté preparado para intervenir ya que se cuenta con un sistema incorporado de respaldo. Desaparece la figura del conductor (en general) pero el sistema puede solicitar la intervención al no cumplirse todas las condiciones. El auto es capaz de reaccionar autónomamente ante súbitos imprevistos y poner al usuario en una situación de bajo riesgo desde la cual puede accionar.

– Nivel 5 “Automatización completa”: no es necesario el conductor ni existen limitantes para el funcionamiento del sistema, y por lo tanto el vehículo puede seguir conduciendo en todo momento y circunstancia (incluso off-road, de ser necesario). El volante y los pedales pueden ser eliminados.

A los efectos regulatorios son considerados como autos autónomos aquellos de Nivel 4 y 5. Si bien hay prototipos y testeos para autos en el cuarto nivel, aún no se encuentran desarrollados autos pertenecientes al quinto nivel.

Los niveles más altos de autonomía plantean un segundo problema adicional al pertinente a la responsabilidad: la pérdida del control del humano sobre el auto (y el efecto psicológico que esto acarrearía).

En un auto de automatización completa no existen ni pedales ni volate, por lo que cabría preguntarse cuál será la sensación de una persona al subirse a un vehículo de tales características (fuera de la adrenalina de la primera vez).

También cabe destacar que, como todo aquello basado en un sistema operativo digital, el software del vehículo podría ser susceptible a ataques de softwares maliciosos y hackeos, con lo que la conexión continua a ecosistemas digitales podría ser riesgosa.

Surgen entonces las siguientes cuestiones: ¿De no existir el control hasta qué punto existe entonces la responsabilidad? ¿Se limitaría ésta a cumplir con las actualizaciones requeridas por el fabricante del auto y/o software? Planteadas las dos problemáticas (la responsabilidad y el control) se evidencia una reciprocidad entre ambas.

Volviendo a la óptica de los dos enfoques, los defensores de enfoque permisivo resaltan la tendencia de las personas a temer el cambio y la pérdida del control, y afirman que esto sólo puede ser subsanado mediante la masificación del producto. Aquellos defensores del enfoque legalista sostienen que la sensación de seguridad sólo puede darse como producto de la imposición de estándares más elevados.

Independientemente del enfoque adoptado se identifican tres etapas necesarias para la adopción de estas nuevas tecnologías:

1. Etapa de Testeo: deben existir estándares globales y deber ser los ingenieros quienes, gracias al conocimiento de su campo, aseguren que los autos operan de la forma en que fueron diseñados. Las empresas fabricantes deberían cargar con las responsabilidades de los siniestros.

2. Etapa de Masificación: es necesaria la puesta en la calle de los vehículos de manera que se puedan enfrentar a los desafíos y las condiciones del mundo real. En esta etapa, debe estar claro el marco legal sobre el cual se opera.

3. Etapa de Aceptación: el público general se sentirá confortable con aquello que antes consideraba imposible. Al momento, poca gente tuvo oportunidad de probar los vehículos autónomos, pero producto de la masificación las personas estarán más propensos a su adopción definitiva.

El dilema del tranvía: un debate vigente

En 1967 en el artículo publicado para el Oxford Review no. 5 (7), Philippa Foot plantea un problema ético conocido como El Dilema del Tranvía“Un tranvía corre fuera de control por una vía. En su camino se hallan cinco personas que serán atropelladas y muertas sin el tranvía continúa su camino. Afortunadamente, es posible accionar una palanca que encaminará al tranvía por una vía diferente donde, por desgracia, hay otra persona que será atropellada. ¿Debería entonces accionarse la palanca y salvar cinco, pero matar a uno?”

Si bien en su momento el planteo no fue profundamente debatido, con el tiempo se fueron encontrando variantes que hacían más dificultoso este dilema, cambiando levemente sus variables.

Tales planteos hasta hace poco parecían análisis meramente filosóficos, pero con el desarrollo de los autos autónomos se ha generado la necesidad de replantearse estos dilemas, pues no es sólo el problema de qué se elige, sino que debe hacerse una pregunta de segundo nivel: ¿por qué se elige?

Con el fin de armar el marco conceptual sobre el cual los autos autónomos deberían tomar las determinaciones al conducir, en 2014 el MediaLab del Instituto Tecnológico de Massachusetts (MIT) lanzó un experimento llamado Moral Machine en el cual en forma de juego los usuarios debían tomar decisiones (como variaciones del problema del tranvía) (8).

La información fue recopilada y procesada con el fin de analizar y generar un perfil respecto de las prioridades éticas de cada cultura con respecto a esta temática y así obtener conclusiones sobre cuáles eran las decisiones que debería tomar el vehículo autónomo a la hora de enfrentarse a estos dilemas.

El experimento acabó concluyendo que la mayoría de las personas elegiría salvar personas humanas sobre animales, salvar más vidas que menos, jóvenes antes que viejos y mujeres antes que hombres (9).

Sin embargo, tal y como describe Josh Pacher en la charla TEDx “Ethics in Autonomous Cars: Eliminating Harmful Bias» (10), suele darse con frecuencia que lo que la gente dice que haría no guarda una relación directa con aquello que realmente haría (sobre todo si se tienen en cuenta factores emocionales no considerados en el experimento Moral Machine). Así es que no se pueden basar las determinaciones de los vehículos autónomos meramente en la teoría moral.

Considerando lo anterior, se llega a la conclusión de estos deberían actuar en base a tres regles:

1. Alinearse con valores humanos, de manera de actuar tal y como las personas lo harían.

2. Ser capaz de resolver las situaciones mejor de lo que sería una persona, ya que ni siquiera el mejor conductor humano es suficientemente bueno como para que el resto confíe todas las decisiones en este.

3. Debería hacer uso de machine learning para llegar a un estándar óptimo de conducción, de manera que sea capaz de predecir comportamientos de los seres humanos.

Sin embargo, dado que las consideraciones de lo correcto y lo incorrecto pueden variar y entendiendo que si las consideraciones de un auto autónomo fallan una persona puede morir, resulta necesario plantear algunos posibles caminos para que el algoritmo decisorio del vehículo desarrolle una noción primitiva de valores:

– Aprendizaje supervisado: se plantean problemas y se muestra como las personas actuaríamos. Luego, mediante el proceso de machine learning, las computadoras serán capaces de predecir futuros comportamientos. La limitante radica en la incapacidad de mostrar todos los escenarios posibles a los cuales el vehículo autónomo se enfrentará.

– Aprendizaje reforzado: se plantean las reglas de ejecución por medio de un sistema de premios y castigos, el algoritmo será estimulado para aprender a maximizar los premios y no tomar decisiones que vayan en contra estos. El problema radica en cómo se definen aquellas actitudes que son premiables.

El programa AlphaGo, de DeepMind, logró determinar que con el Aprendizaje Reforzado es posible obtener mejores resultados que mediante el Aprendizaje Supervisado, pese a que en las primeras instancias se parte de un menor conjunto de datos y reglas.

Sin embargo, para el caso de los vehículos autónomos los datos y reglas requeridos para el Aprendizaje Reforzado no están claramente delimitados: no hay las reglas éticas definidas universalmente ni se conocen todos posibles estados posteriores a las decisiones (es decir, qué puede pasar inmediatamente después de ésta ser tomada). Una solución posible sería plantear valores primitivos, tal como que todos los seres humanos poseen un valor intrínseco mayor al resto de las cosas, y dejar que los algoritmos evolucionen desde esa noción primitiva.

Tal solución se encontraría a medio camino entre ambos sistemas de aprendizaje, permitiendo que  la máquina tome algunas decisiones y se autodesarrolle, pero teniendo de contrapunto una posterior validación por parte de un humano. La retroalimentación del algoritmo permite que no se definan los valores a priori, sino que este los intuirá a partir de los resultados de manera dinámica y en base a las modificaciones propuestas por el ser humano. Esto es darles mayor libertad a las máquinas de lo que se podría pensar originalmente y el humano pasaría a ser una herramienta de control. Los vehículos autónomos serían “criados” de manera similar a los hijos, es decir por medio de un aprendizaje evolutivo.

Perspectivas al futuro

¿Cómo se sigue entonces a partir de este punto? ¿Cómo comprender si lo que es beneficiosos para unos es beneficioso para la sociedad en su conjunto?

Hoy los autos autónomos están en fase de testeo y se espera que no pase mucho tiempo hasta que estén disponibles comercialmente, pero ¿qué pasaría si en un futuro la sociedad opta definitivamente por estos de manera exclusiva y prohibiendo el manejo humano?

Si se retrasa significativamente la implementación y masificación, ¿es correcto condenar a las personas con discapacidades a depender de otras para su transporte, recortando la libertad cuando ya existen mejores soluciones?

La introducción de nuevas tecnologías es excitante y correctamente administrada puede mejorar de manera significativa la calidad de vida de las personas, pero aquellos avances disruptivos presentan peligros y desafíos nunca enfrentados. A su vez, la falta de testeos puede traer consecuencias nefastas.

Los debates aún continúan y deben ser puestas sobre la mesa ambas perspectivas. La búsqueda de la seguridad no debe coaccionar la libertad que inspiró grandes cambios, pero tampoco debe anticiparse la masificación de un producto del que aún no se han delimitado sus marcos legales y éticos.

Referencias

(1) https://www.nhtsa.gov/press-releases/us-department-transportation-seeks-public-comment-automated-driving-system-safety

(2) https://docs.cpuc.ca.gov/PublishedDocs/Efile/G000/M348/K580/348580207.PDF

(3) https://www.bbc.com/news/technology-55438969

(4) https://www.bbc.com/news/technology-54175359

(5) https://www.europarl.europa.eu/doceo/document/TA-8-2019-0005_ES.html?redirect

(6) https://www.sae.org/standards/content/j3016_201806/

(7) https://sites.pitt.edu/~mthompso/readings/foot.pdf

(8) https://www.moralmachine.net/hl/

(9) https://www.researchgate.net/publication/353688214_Ethics_in_Autonomous_Vehicle_Software_The_Dilemmas

(10) https://www.youtube.com/watch?v=KnD27GdhZxU

 

Fuente: Free Fundación

Videos Nuevos

YouTube video
YouTube video
YouTube video

Buscador

Seguinos