Disrupción tecnológica, transformación y sociedad . Группа авторов
la que mantiene las buenas prácticas. Sin embargo, cuando el Estado interviene y convierte estas iniciativas en texto normativo, se corrigen las fallas de mercado y las prácticas éticas se convierten en prescripciones normativas (Borking y Raab, 2001).
De acuerdo con lo expuesto, estoy convencidos de que la privacidad, la agencia, la autonomía y la autodeterminación son derechos ubicados en una intersección en la que confluyen principios éticos y normas jurídicas que persiguen proteger un ámbito de privacidad y autonomía personal, el cual cumple un doble propósito: protege nuestra información personal, la forma, el grado y la extensión en que decidimos compartirla con otras personas, y la manera en que tomamos nuestras decisiones personales de manera libre y autónoma con base en dicha información, y sin ningún tipo de injerencia externa no consentida, indebida o ilegal.
La doctrina señala que el solo hecho de robustecer el tratamiento de datos mediante mecanismos de ética digital más allá de los mínimos establecidos por la ley, robustece la protección del secreto y la reserva de cierta información, en donde el control, como posibilidad de autorizar o restringir la circulación de la información, cumple las garantías constitucionales de manera coherente2. Al respecto, conviene recordar que la Unión Europea y la OCDE han sostenido al unísono que el proceso de diseño, desarrollo e implementación de sistemas de IA debe girar en torno a cuatro principios éticos, a saber: transparencia, responsabilidad, control y explicabilidad.
Creo que ello no se logra únicamente con el diseño de procedimientos, reglas y protocolos de papel, y adicionalmente considero que todo Estado de derecho digno de su nombre y de los principios democráticos sobre los que gravita requiere del diseño e implementación de herramientas o métodos “X-pordiseño” (X = legalidad, privacidad o ética digital) para integrar la legalidad, la privacidad y la ética digital dentro de las tecnologías, operaciones y arquitectura de los bienes o servicios digitales, y/o de los modelos de negocio que incorporen el procesamiento automatizado de datos personales por sistemas de AI.
En efecto, la doctrina explica que las herramientas o métodos “X-por-diseño” no se añaden después del hecho o como un add-on, o adición posterior al diseño, desarrollo e implementación del bien o servicio digital (Cavoukian, 2006). La principal consecuencia es que la privacidad y la ética digital se convierten en un componente esencial de la funcionalidad del producto o servicio digital prestado por un agente público o privado. En consecuencia, la privacidad y la ética digital deberían hacer parte integral del bien o servicio digital, pero sin que ello comprometa su funcionalidad o su aptitud para cumplir con la finalidad que persigue (Cavoukian, 2006).
De esa manera, la privacidad y la ética digital deberían estar “integradas” de manera holística, integradora y creativa en las tecnologías, las operaciones y las arquitecturas de los bienes y servicios digitales. Estamos convencidos de que solo de esa manera se podrá integrar la ética digital en el diseño, desarrollo e implementación de los sistemas de IA con el fin de garantizar que funcionen dentro de parámetros éticos que respeten la privacidad, la agencia y la autonomía para tomar nuestras decisiones de acuerdo con nuestro plan de vida y sin ningún tipo de injerencia externa.
En esencia, la ética digital comprende los métodos, las prácticas y los protocolos que los responsables y encargados decidan diseñar e implementar de manera voluntaria y espontánea a efectos de fortalecer los cimientos de una comunidad que respeta profundamente la privacidad y la autonomía de las personas.
Para tal efecto, los responsables y encargados podrían, por ejemplo, implementar medidas tendientes reducir el volumen de datos requeridos por un modelo de toma de decisiones automatizado, determinar el grado de intervención humana en el modelo de toma de decisiones de acuerdo con su nivel de riesgo y empoderar al titular del dato respecto del control de la forma, la naturaleza y la extensión en que autoriza su uso. A mi juicio, el incumplimiento o inobservancia de un estándar de conducta ético no podría por definición acarrear consecuencia legal alguna, sino que dicha conducta únicamente podrá ser sancionada mediante el reproche social o reputacional.
BIBLIOGRAFÍA
ACM Council. “Guidelines for Professional Conduct in Information Processing”, 1966, disponible en [https://ethics.acm.org/code-of-ethics/previous-versions/1966-acm-code/].
BARRAT, J. Our final invention: artificial intelligence and the end of the human era, Thomas Dunne Books St. Martin’s Griffin, 2015.
BARTLETT, R.; A. MORSE, R. STANTON et al. “Consumer-Lending Discrimination in the FinTech Era”, 2019, disponible en [https://faculty.haas.berkeley.edu/morse/research/papers/discrim.pdf].
BECK, H. “Bio-Social Cybernetic Determination, or Responsible Freedom?”, en C. MITCHAM y A. HUNING (eds.). Philosophy and Technology II, Springer, Dordrecht, 1986, disponible en [https://doi.org/10.1007/978-94-009-4512-8_7].
BIRNHACK, M. D. “Privacy in Context: Technology, Policy, and Social Life”, Jurimetrics, 51, 2010, disponible en [https://doi.org/10.1207/S15327051HCI16234_03].
BLOUSTEIN, E. J. “Privacy as an aspect of human dignity: an answer to Dean Prosser”, en Philosophical Dimensions of Privacy, Cambridge University Press, 2010, disponible en [https://doi.org/10.1017/cbo9780511625138.007].
BORKING, J. y C. RAAB. “Laws, PET and Other Technologies for Privacy Protection”, Journal of Information, Law and Technology, 2001, disponible en [https://www.researchgate.net/publication/220667925_Laws_PET_and_Other_Technologies_for_Privacy_Protection].
BOSTROM, N. Superintelligence: paths, dangers, strategies, Oxford University Press, 2017.
BREY, P. “Disclosive computer ethics”, ACM SIGCAS Computers and Society, 30(4), 2000, 10, disponible en [https://doi.org/10.1145/572260.572264].
BROWNSWORD, R. “Law, Liberty, and Technology”, en R. BROWNSWORD, E. SCOTFORD y K. YEUNG (eds.). The Oxford Handbook of Law, Regulation and Technology, 2017, disponible en [https://doi.org/10.1093/OXFORDHB/9780199680832.013.2].
BUGHIN, J.; E. HAZAN et al. Artificial Intelligence: The Next Digital Frontier?, 2017, [www.mckinsey.com/mgi].
BYNUM, T. W. “Computer ethics: Its birth and its future”, Ethics and Information Technology, 3(2), 2001, 109-112, disponible en [https://doi.org/10.1023/A:1011893925319].
CABROL, M.; N. GONZÁLEZ ALARCÓN, C. POMBO y R. SÁNCHEZ ÁVALOS. Adopción ética y responsable de la inteligencia artificial en América Latina y el Caribe, 2020, disponible en [https://doi.org/[http://dx.doi.org/10.18235/0002169].
CALO, R.; J. BROWNELL et al. “Code, Nudge, or Notice?”, Iowa Law Review, 99(2), 2014.
CASTAÑO, D. “A Contribution to the Study of Administrative Power in a Philosophical Perspective”, tesis doctoral, University of California, disponible en [https://escholarship.org/uc/item/1mg974wr].