Disrupción tecnológica, transformación y sociedad . Группа авторов

Disrupción tecnológica, transformación y sociedad  - Группа авторов


Скачать книгу
de la economía conductual con sistemas de IA y big data bajo sofisticadas arquitecturas de big nudging representa un riesgo potencial para nuestra agencia y capacidad para tomar decisiones de manera informada, libre y sin injerencias externas (Puaschunder, 2018).

      Lo anterior me recuerda una conversación entre Fei-Fei Li y Yuval Noah Harari en la Universidad de Stanford, donde Harari postuló la siguiente ecuación para explicar la forma en que ciertos conceptos filosóficos tradicionales están siendo cuestionados por las tecnologías disruptivas: conocimiento biológico x poder de computación x datos = habilidad de hackear a los humanos1. Por “hackear a los seres humanos” Harari entiende la capacidad que podrían tener los gobiernos o las organizaciones privadas de orientar nuestro comportamiento en un sentido o dirección que no tomaríamos de forma espontánea.

      Pensemos en un ejemplo que hace algunos años parecía sacado de una película de ciencia ficción pero que en nuestros días es más real que nunca y que resulta de la combinación de la IA con la realidad virtual y aumentada. Me refiero a la implementación de sistemas de IA para el procesamiento automatizado de datos en ecosistemas inmersivos lo que puede tener varios propósitos, por ejemplo, la creación de un grafo social inmersivo, la generación de contenido, la creación de avatares, la reducción de los efectos físicos derivados del uso prolongado de artefactos de AR/VR, la generación de recomendaciones publicitarias y la implementación automatizada de reglas comunitarias o políticas de contenido, entre otros.

      Al mismo tiempo, el procesamiento automatizado de datos por sistemas de IA en ecosistemas inmersivos podría generar potenciales riesgos para la privacidad y la agencia humana, derivados de la recolección y tratamiento de datos sensibles que permitan profundizar nuestro conocimiento del funcionamiento de nuestros sistemas biológicos y emocionales, lo cual podría reforzar el big nudging.

      Por esas razones, a mi juicio el big nudging tiene el potencial de otorgarle a los arquitectos del esquema de toma de decisiones, sin importar si se trata de un gobierno o una organización privada, la capacidad de orientar, incidir o moldear prospectivamente el comportamiento online y offline de las personas sin que se percaten. Tal poder en manos equivocadas genera riesgos y retos, para cuya solución el derecho todavía no tiene una respuesta, por lo que la ética digital jugará un papel crítico hasta tanto los ordenamientos jurídicos no marchen al mismo compás del estado del arte de la IA.

      La noción de privacidad se refiere a la recopilación, almacenamiento, retención e intercambio de información en forma de datos. Su importancia ha aumentado rápidamente gracias a la sociedad de la información y a los desarrollos tecnológicos que permiten una compilación cada vez más precisa, estructurada e individualizada (Reiman, 2012). Conforme se han venido desarrollando las tecnologías de la información y las comunicaciones, los movimientos de protección de datos personales han llevado a definir un marco jurídico para el almacenamiento de datos y su tratamiento de acuerdo con el cual el derecho a la privacidad constituye el control de la información y la limitación de su acceso (Birnhack, 2010).

      La privacidad reviste la mayor trascendencia para la ética digital en la medida en que existen diversas preocupaciones respecto de los efectos que el mal uso de la información personal causar en la opinión pública o en la “sociedad de la video vigilancia”. Un ejemplo que menciona Jeffrey H. Reiman (2012: 28) para hacer hincapié en este aspecto consiste en la metáfora que usó el filósofo francés Michel Foucault respecto del Panóptico de Bentham:

      El Panóptico era el plan de Jeremy Bentham para una prisión en que un gran número de convictos podrían ser mantenidos bajo vigilancia por muy pocos guardias. La idea era construir las celdas de la prisión en un círculo alrededor del puesto de guardia. Todos los prisioneros estarían en silueta contra la luz que entra en las celdas desde las ventanas en el exterior del círculo […] Sus movimientos serían visibles para un solo guardia en el centro.

      Foucault se refirió a esta metáfora para explicar los mecanismos de control social a gran escala que se pueden dar en el mundo moderno. Es posible mantener el control social incluso si nadie está vigilando, por lo que la noción de pérdida de la intimidad representa una forma de arrebatar la autonomía dentro de la agencia humana (Reiman, 2012: 27 y ss.). Ahora bien, conviene precisar que la tesis predominante durante los años 80 señalaba que una amenaza a la privacidad solo es preocupante en la medida en que la privacidad sea valiosa o proteja otras cosas que son valiosas. Incluso el tratamiento desproporcionado de los datos personales se justificaba por la teoría laboral de la propiedad de Locke, quien argumentaba “que los desarrolladores de software tienen un natural derecho a controlar el uso de su software” (Reiman, 2012: 72).

      La noción de ética digital no surgió en el siglo XXI, sino que su origen se remonta a 1940 con la aparición de máquinas informáticas utilizadas en la solución de ecuaciones diferenciales. De acuerdo con Wiener (1961: 4), en ese entonces se logró que

      … toda la secuencia de operaciones se [estableciera] en la propia máquina, de modo que no hubiera intervención humana desde el momento en que se [introdujeran] los datos hasta que se sacaran los resultados finales, y que todas las decisiones lógicas necesarias para ello se incorporaran en la propia máquina.

      Lo cual significa que los desarrolladores lograron crear una máquina capaz de almacenar datos, procesar información, tomar decisiones lógicas y borrar todo el asunto sin requerir de la intervención humana.

      Lo anterior implicó la automatización de procesos, pero el avance en el programa de máquinas de computación a cargo del Vannevar Bush incluyó recomendaciones para su posible uso en una guerra, las cuales no fueron acogidas en su momento. Sin embargo, en los albores de la Segunda Guerra Mundial, y ante la experticia de la aviación alemana, se hizo necesario mejorar la artillería antiaérea, lo cual se logró mediante la incorporación de aparatos de control con cálculos necesarios para establecer la trayectoria de tiempo y espacio en los misiles destinados a un objetivo en movimiento (Wiener, 1961: 3).

      El agregado de la informática a la guerra suscitó los primeros dilemas de la ética digital derivados del procesamiento automatizado de datos, habida cuenta de que se buscó que la toma de decisiones de guerra no estuviera a cargo completamente de agentes humanos. Así lo relató Wiener:

      Desde hace mucho tiempo he tenido claro que la moderna máquina de computación ultrarrápida era en principio un sistema nervioso central ideal para un aparato de control automático; y que su entrada y su salida no tienen por qué ser en forma de números o diagramas, sino que podrían ser, respectivamente, las lecturas de órganos sensoriales artificiales […] ya estamos en condiciones de construir máquinas artificiales de casi cualquier grado de elaboración de rendimiento. Mucho antes de Nagasaki y de que el público conociera la bomba atómica, se me ocurrió que estábamos aquí en presencia de otra potencialidad social de importancia inaudita para el bien y para el mal. La fábrica automática y la línea de montaje sin agentes humanos están sólo tan lejos de nosotros como está limitado por nuestra voluntad de poner tal grado de esfuerzo en su ingeniería como se gastó, por ejemplo, en el desarrollo de la técnica de radar en la Segunda Guerra Mundial.

      He dicho que este nuevo desarrollo tiene posibilidades ilimitadas para el bien y para el mal. Por un lado, hace de la metafórica de las máquinas, como imaginó Samuel Butler, un problema muy inmediato y no metafórico. Le da a la raza humana una nueva y más efectiva colección de esclavos mecánicos para realizar su trabajo. Tal trabajo mecánico tiene la mayoría de las propiedades económicas del trabajo esclavo, aunque, a diferencia del trabajo esclavo, no implica los efectos desmoralizantes directos de la crueldad humana (Wiener, 1961: 27).

      En efecto, en 1945 se construyó el ENIAC, un integrador numérico electrónico y computacional


Скачать книгу