La gestión de endpoints puede garantizar la seguridad, la organización y la eficacia de una empresa al proporcionar una visión global de la salud, la ubicación y el estado de los endpoints. Descárgate esta guía con donde encontrarás las principales tendencias en gestión de endpoints, los principales retos y mucho más.

alexa viviendas inteligentes, Viviendo en una casa inteligente

¿Quién es el responsable de los actos de la inteligencia artificial?

Ya conocíamos que se estaba aplicando la inteligencia artificial (IA) en el sector jurídico desde 2016, cuando el despacho de abogados norteamericano especializado en quiebras, Baker & Hostetler, incorporó a “Ross”, un sistema basado en la tecnología “Watson”, creada por IBM para optimizar y acelerar los algoritmos de aprendizaje automático; que es capaz de resolver consultas jurídicas complejas de forma casi instantánea, a partir de su propia experiencia y de la información a la que tiene acceso de leyes, jurisprudencia e internet. Este sistema resulta especialmente útil para los juristas que trabajan con el Derecho anglosajón, en el que el precedente tiene un peso muy importante; en contraposición al sistema continental, basado en la codificación de leyes.

En abril de 2018 se realizó un experimento en el que se enfrentó a 20 destacados abogados con “Law Geex”, un sistema de inteligencia artificial desarrollado en Israel por Noory Bechor en colaboración con profesores de Derecho de las Universidades de Stanford, Duke y del Sur de California (Estados Unidos). La finalidad del ensayo era determinar quién resulta más efectivo para analizar contratos, localizando incorrecciones legales, cláusulas abusivas, etc. El resultado fue que la inteligencia artificial logró una precisión del 92 % (empleando para ello 26 minutos), mientras que los abogados humanos se quedaron en un 85 % (necesitando invertir más de dos horas y media). Lo más relevante es que estas conclusiones avivan la polémica sobre si los sistemas robóticos podrían sustituir al ser humano en las labores jurídicas en un futuro más o menos cercano.

Ahora se pretende dar un paso más, ya que, según se informó el pasado mes de marzo de 2019, el Ministerio de Justicia de Estonia –país que, a pesar de su reducido tamaño, ha realizado importantes avances en digitalización y modernización de su Administración–, con la finalidad de reducir la burocracia y acortar los plazos de resolución de los procedimientos, está planteándose la implantación de un sistema de inteligencia artificial que se ocupe de analizar casos sencillos, mediante el análisis de documentos legales y otra información relevante, que le permita tomar una decisión previa. Sin perjuicio de ello, será un juez humano el que tenga tomar la decisión final, con lo que se mantiene reactiva el debate sobre si sería posible conferir a una inteligencia artificial absolutamente autónoma la potestad de tomar decisiones que hayan de imponerse a seres humanos.

¿Quién es el responsable de las decisiones y actos de la inteligencia artificial, el ser humano que la programó inicialmente, las personas que han contribuido a su aprendizaje…?

Todo lo anterior conduce a una pregunta, cuya respuesta es la clave para dirimir la conveniencia del establecimiento de los sistemas de inteligencia artificial, no solo en el sector legal, sino en otras muchas facetas en las que se han de adoptar decisiones con las que convivimos todos los días. Esta cuestión sería: ¿quién es el responsable de las decisiones y actos del sistema de inteligencia artificial, el ser humano que la programó inicialmente, las personas que han contribuido a su aprendizaje, o la propia inteligencia artificial considerada como una persona electrónica?

Y es que, si partimos de la base de que estamos ante un ente independiente, con capacidad para aprender, reflexionar y tomar sus propias decisiones de forma autónoma, es probable que se produzcan situaciones en las que la inteligencia artificial realice actuaciones que generen responsabilidad, por ser ilegales o por causar daño a terceros o a cosas. Pero ¿es posible considerar esta supuesta ausencia de intervención humana desde el punto de vista jurídico?

Está claro que la respuesta no es sencilla, por lo que conviene ser cauto con la solución que se alcance. Por un lado, el artículo 59-f de la Resolución del Parlamento Europeo, de 16 de febrero de 2017, con recomendaciones destinadas a la Comisión sobre normas de Derecho civil sobre robótica [2015/2103 (INL)], aboga por crear a largo plazo una personalidad jurídica específica para los robots, de forma que como mínimo los robots autónomos más complejos puedan ser considerados personas electrónicas responsables de reparar los daños que puedan causar, y posiblemente aplicar la personalidad electrónica a aquellos supuestos en los que los robots tomen decisiones autónomas inteligentes o interactúen con terceros de forma independiente.

Teniendo en cuenta que, como primera dificultad, no aparece definido lo que es un robot complejo ni lo que son las decisiones autónomas inteligentes que puedan conferir a la inteligencia artificial la personalidad electrónica o “e-personality”; en todo caso, dado que en la inteligencia artificial los algoritmos inteligentes influyen en las personas, es necesario un control a priori y a posteriori de las decisiones adoptadas, así como que el humano destinatario de la actividad de la inteligencia artificial comprenda, acepte y discrimine entre las decisiones que se confían a esta y las que serán adoptadas por un ser humano.

Y asumiendo el supuesto de que se atribuya la posibilidad de asumir responsabilidad civil por daños a estas personas electrónicas, la citada Resolución del Parlamento Europeo propone que se adopten modificaciones legislativas como establecer un régimen de seguro obligatorio que cubra la actividad de los robots; crear un fondo de compensación que garantice la reparación de los daños causados por un robot en caso de ausencia de un seguro; o asignar un número de matrícula individual que figure en un registro específico de la Unión Europea que asegure la asociación entre el robot y el fondo del que depende y que permita conocer la naturaleza del fondo, los límites de su responsabilidad en caso de daños materiales, los nombres y las funciones de los participantes, etc.

Sin embargo, no todo el mundo está conforme con esto. En abril de 2018 más de 200 expertos de 14 países –entre los que figuran políticos, investigadores en inteligencia artificial y robótica, empresarios, expertos en salud física y mental y especialistas en Derecho y Ética–, enviaron una carta abierta al Presidente de la Comisión Europea pidiendo que no se conceda a las máquinas la condición de personas electrónicas, pues supondría reconocerles derechos y responsabilidades que no les corresponden, ya que se estarían sobrevalorando sus capacidades reales, y podría servir de excusa para que los fabricantes se zafen de sus responsabilidades.

Dicho esto, por el momento, la legislación aún no reconoce el estatus de persona electrónica ni, en consecuencia, confiere a los entes robóticos capacidad de obrar para ser responsables de todos los actos de la vida civil que faculta el artículo 322 del Código Civil, por lo que habrá que buscar el origen humano de la responsabilidad. Sin perjuicio de que, como decíamos, no deben precipitarse conclusiones, en principio resultaría complicado determinar las personas que han colaborado en el aprendizaje de la inteligencia artificial, salvo que pudiera acreditarse sin lugar a dudas la concreta intervención de determinadas personas en la enseñanza al sistema de conductas perniciosas.

De esta forma, por descarte, en el momento actual y mientras no se produzca una reforma legislativa que instaure la categoría de persona electrónica como sujeto titular de determinadas obligaciones (y, probablemente, derechos), el sujeto que aparece con mayor grado de responsabilidad sería el que creó la inteligencia artificial, que debe asegurarse en el proceso de programación de que el sistema no pueda aprender cosas que le conduzcan a cometer ilícitos o causar daños. Y ello, por aplicación a sensu contrario del artículo 1105 del Código Civil, que establece que nadie responderá de aquellos sucesos que no hubieran podido preverse o, que, previstos, fueran inevitables. Luego, si pudo preverse que la inteligencia artificial sería capaz de aprender cosas que le condujeran a cometer actos contrarios a la ley, su programador debería ser el responsable.

Por Javier López, socio de Écija

Deja un comentario

Scroll al inicio