Disrupción tecnológica, transformación y sociedad . Группа авторов
la vía administrativa o judicial (Mattirolo, 1930: 15). De esa manera, el incumplimiento de un estándar de conducta ético por un sujeto que diseñe, desarrolle u opere un sistema de IA únicamente podrá devenir en consecuencias reputacionales y en el reproche social.
Sin embargo, sugiero que las autoridades administrativas y judiciales tengan en cuenta la implementación y observancia voluntarias de los estándares o protocolos de ética digital, como debida diligencia en el cumplimiento de normas jurídicas que puedan regular ciertos aspectos mínimos de la conducta desplegada por un sujeto en el diseño, desarrollo e implementación de un sistema de IA. Ello significa que las autoridades administrativas y judiciales deberían apreciar la diligencia y los recursos desplegados por el sujeto que ha decidido ir un paso más allá del derecho jurídico-positivo para intentar que el sistema de IA a su cargo opere de manera transparente, explicable, responsable y justa en ausencia de normas jurídicas que así lo ordenen, sin perjuicio de las situaciones involuntarias o adversariales que puedan socavar dicho propósito.
De esa manera, la ética digital se erige en un importante instrumento para fortalecer los cimientos de una comunidad que respeta profundamente la privacidad y la autonomía de las personas, y el compromiso de las organizaciones públicas y privadas de desarrollar e implementar modelos de decisión que incorporen el procesamiento automatizado de datos que sean consistentes con ello.
B. CUESTIONES ÉTICAS RELACIONADAS CON ELPROCESAMIENTO AUTOMATIZADO DE DATOS POR SISTEMAS DE INTELIGENCIA ARTIFICIAL
Luciano Floridi (2008: 47) explica que una máquina funciona gracias al diseño del software que se ha programado para ella, de manera que
…una computadora solo puede hacer lo que está programada explícitamente para hacer, a diferencia de un organismo como un perro, por ejemplo, que está naturalmente estructurado para responder al medio ambiente de una manera interactivamente abierta.
En ese sentido, la programación establece el rendimiento y el cumplimiento de las secuencias operacionales establecidas mediante algoritmos que se describen en matemáticas, y pueden ser interpretados por la noción de un procedimiento efectivo. De acuerdo con lo establecido en la tesis de Church-Turing que describe el algoritmo en un sentido matemáticamente absoluto (Floridi, 2008), el algoritmo debe ser explícito y no ambiguo (interpretable por cualquier dispositivo), impecable e infalible (no contener errores y, de tenerlos, presentar soluciones), finito (contener instrucciones repetibles con una salida deseada), determinista y secuencial (realizar operaciones en un momento dado). Sin embargo, los retos de la naturalización del lenguaje son cada vez más complejos, puesto que la programación no se da en lenguaje natural (Copeland, 1999).
De forma que la IA involucra las bases teóricas de software y hardware con el objetivo de alcanzar un comportamiento comparable al de los seres humanos inteligentes en circunstancias similares, pero en realidad las redes neuronales artificiales cuentan con un enfoque en computación que aún no está en capacidad de igualar las facultades humanas, aunque son complementarias (Floridi, 2008: 147 y 189).
Lo anterior podría implicar que los algoritmos cuenten potencialmente con capacidades no deseables en asuntos que involucran la ética, lo cual requeriría dotar a la IA de una moral dinámica y de reglas predispuestas por el programador a fin de que tenga la capacidad de aprender, supervisada por la evaluación del esquema moral deseable. Mario Verdicchio (2017: 179) lo explica en los siguientes términos:
El debate sobre la importancia de la ética de la máquina se basa en el tema de la autonomía: la disciplina se propone como una salvaguardia contra los posibles riesgos relacionados con los sistemas autónomos, y a su vez, al limitar dichos riesgos, permite que florezca la investigación en este campo. En cualquier escenario en el que se permita a las máquinas operar de forma autónoma en presencia de humanos, surge la necesidad de proteger a estos últimos […] En realidad, la seguridad es una preocupación primordial en cualquier entorno en el que las máquinas, ya sean autónomas o no, estén en funcionamiento.
Esta clase de funcionamiento origina discusiones respecto de la dimensión ética de las maquinas frente a la autonomía. En ese sentido, los profesores Don Howard e Ioan Muntean (2017: 124) señalan que los agentes artificiales son susceptibles de combinar autonomía y complejidad, lo que se demuestra en la capacidad de la IA para realizar tareas cada vez más complejas, lo cual eventualmente implicará que
… delegaremos gradualmente predicciones de procesos complejos a máquinas (p. ej., modelos meteorológicos, control de sistemas nucleares, misiones no tripuladas a planetas distantes, etc.), o incluso el procedimiento de toma de decisiones sobre situaciones complejas.
C. LA ÉTICA DIGITAL DESDE EL DISEÑO COMO UNA APLICACIÓN ÉTICA DE LA PRIVACIDAD
La implementación de un marco ético de gobernanza de la IA requiere articular un enfoque sistemático que involucre la privacidad por diseño, el derecho de los usuarios y las buenas prácticas en el manejo de la información personal desde la arquitectura. El alcance debe incluir tanto las practicas empresariales como la gestión misma de la información personal (Federal Trade Comission, 2012).
Sin embargo, como señala Ira Rubinstein (2012), a pesar de los avances en derecho comparado, no se ha logrado una aceptación en el mercado frente a la mejora de la privacidad, puesto que, desde el análisis económico, este tipo de prácticas no ofrece una ventaja competitiva para las compañías tecnológicas. De allí que la doctrina se refiera a dos clases de privacidad por diseño: una que “respeta la privacidad” y otra que “preserva la privacidad”: la primera indica que se recopilan datos personales, pero con notificaciones, opciones y accesos mejorados en el control individual; mientras que la segunda presenta acciones limitadas de control, pero implementa protocolos criptográficos y otras medidas de seguridad (Rubinstein, 2012).
Así las cosas, la adopción de la privacidad desde el diseño implica capacitar personal especifico en privacidad y evaluar los riesgos antes de lanzar un algoritmo. Luego, se deben cumplir las prácticas implementadas teniendo en cuenta la administración de los datos, los mecanismos de etiquetado, el cifrado de la información, la verificación y la configuración predeterminada (Federal Trade Comission, 2012; Rubinstein, 2012). No se trata de cumplir estrictamente los mínimos establecidos en la ley, sino que los principios éticos implican recopilar información con propósitos legítimos, de tal suerte que haya una reducción sustancial de los riesgos frente a los titulares de los datos, y el procesamiento se limite al consentimiento y no se amplíe al enfoque de la publicidad dirigida.
Por lo general, la aplicación de la ética para la protección de datos personales se ha dado a partir de las Privacy Enhancing Technologies (PET), sistema coherente con las medidas de privacidad y la reducción de los datos personales en la tecnología. No obstante, no ha habido suficientes incentivos para promover la implementación de las PET, razón por la cual se ha limitado a encontrar las medidas técnicas adecuadas para proteger los datos personales y ajustar las prácticas de responsabilidad empresarial (Borking y Raab, 2001).
La adopción de un enfoque de privacidad desde la ética es diferente según se trate de la perspectiva del sector privado o del gubernamental. Las empresas privadas se concentran en construir medidas tecnológicas y organizativas, en las que el software es sometido a monitoreo y auditorías técnicas y de diseño; sin embargo desde el componente gubernamental las acciones de privacidad conllevan una protección de carácter específico y limitado, en el que las salvaguardas deben cumplir con las exceptivas de los usuarios y las evaluaciones del impacto en la privacidad (Borking y Raab, 2001; Kelleher y Tierney, 2018; Rodotà, 2009).
Las