Lección 1.3 Libertad, Los macro datos están observándote

Comentarios al Libro 21 Lecciones para el Siglo XXI de Yubal Noah Harari

Parte 3 de 14

Tiempo de Lectura: 15 minutos

El libre Albedrio de Salvador Dali

        Introducción    

El relato liberal considera a la libertad humana como el valor más importante. implica qué toda autoridad surge en última instancia del libre albedrío de los individuos,  que se expresan en sus sentimientos, deseos y opciones, en política el liberalismo cree que los votantes saben lo que les conviene, por tanto defienden las elecciones democráticas. En economía mantiene que el cliente siempre tiene la razón, por lo tanto da la bienvenida a los principios del mercado libre. En cuestiones personales el liberalismo anima a las personas a qué se escuchen a si mismas, a que sean fieles a así mismas, a qué sigan los dictados de su corazón, siempre y cuando no afecten las libertades de los demás, está libertad personal está consagrada en la carta de los derechos humanos.

La creencia liberal en los sentimientos y las opciones libres de los individuos no es natural, ni muy antigua.     Durante miles de años la gente creyó que la autoridad procedía de leyes divinas y no del corazón humano por lo que deberíamos santificar la palabra de Dios y no la libertad humana.  Solo en los últimos siglos, el origen de la autoridad paso de las deidades celestiales a los humanos de carne y hueso.

De la misma manera que la autoridad divina estaba legitimada por mitologías religiosas y la autoridad humana ha estado justificada por el relato liberal,     la revolución tecnológica que se avecina podría establecer la autoridad en los algoritmos de macrodatos, al tiempo que socabaría la idea misma de la libertad individual, este es el argumento principal de este post.

Tal como hemos indicado en el capítulo anterior, los descubrimientos científicos sobre la manera en que nuestro cerebro y nuestro cuerpo funcionan, sugieren que nuestros sentimientos no son una cualidad espiritual exclusivamente humana y que no reflejan ningún tipo de libre albedrío; por el contrario los sentimientos son mecanismos bioquímicos que todos los mamíferos y aves emplean para calcular rápidamente probabilidades de supervivencia y de reproducción.    Los sentimientos no están basados en la intuición, la inspiración o la libertad, están basados en el cálculo.

Ningún sistema externo puede esperar comprender mis sentimientos mejor que yo, aún cuando la inquisición española o la KGB soviética me espiaran cada minuto del día; carecen del conocimiento biológico y la capacidad de comprensión necesaria para acceder subrepticiamente a mis pensamientos y a los procesos bioquímicos que modelan mis deseos y mis opciones.

    En consecuencia el liberalismo estaba en lo cierto al aconsejar a la gente que siguiera los dictados de su corazón en lugar de los de un sacerdote o de algún aparato del partido, sin embargo pronto los algoritmos informáticos podrían aconsejarnos mejor que la KGB o la inquisición española, mientras dejan paso a Google o al Baidu Chino.  Es probable que el libre albedrío quede desenmascarado como un mito y el liberalismo pueda perder sus ventajas prácticas.

Al mismo tiempo los informáticos nos proporcionan un poder de procesamiento de datos sin precedentes,     cuando la revolución de la biotecnología se fusione con la revolución de la infotecnología producirán algoritmos de macrodatos que supervisarán y comprenderán mis sentimientos mucho mejor que yo.  Entonces la autoridad pasará probablemente de los humanos a las computadoras, y es posible que mi ilusión de libre albedrío se desintegre a medida que me tope diariamente con instituciones, compañías y organismos gubernamentales que comprendan y manipulen lo que hasta la fecha era mi fuero interno inaccesible.

    Dentro de unas pocas décadas algoritmos de macrodatos alimentados por un flujo constante de datos biométricos podrán controlar nuestra salud a todas horas. Todos los días de la semana, podrán detectar el inicio mismo de la gripa, de un cáncer o de un Alzhéimer mucho antes de que notemos que algo va mal en nosotros. Entonces podrían recomendar tratamientos, dietas y regímenes diarios apropiados, hechos a medida de nuestro físico, nuestro ADN y nuestra personalidad únicos.

Con toda probabilidad podremos sencillamente instruir a nuestro algoritmo de salud para que se ocupe de la mayoría de estos problemas como considere conveniente. En el mejor de los casos enviar actualizaciones periódicas a nuestros teléfonos inteligentes, que nos dirán por ejemplo, que se detectaron y destruyeron 17 células cancerosas. Los hipocondríacos quizá lean con responsabilidad esas actualizaciones, pero la mayoría seguramente las pasaran por alto, de la misma manera que hacemos caso omiso de los avisos tan fastidiosos del antivirus en nuestras computadoras.

    Gracias a sensores biométricos y algoritmos de macrodatos, podrán diagnosticarse las enfermedades mucho antes de que generen dolor o discapacidad.  Siempre nos encontraremos padeciendo alguna enfermedad o siguiendo alguna recomendación; si nos negamos a seguir las recomendaciones, se podría cancelar nuestro Seguro Médico Hospitalario o nuestro jefe nos podría despedir…¿Porqué habrían de pagar ellos, el precio de nuestra testarudez?

        El drama de la toma de decisiones.    

    Es probable que lo que ya está empezando a ocurrir en medicina ocurra también en otros ámbitos. La invención clave es el sensor biométrico que la gente pueda llevar sobre su cuerpo o dentro del mismo y que convierta procesos biológicos en información electrónica,  que las computadoras puedan almacenar y analizar, dando los suficientes datos biométricos y la suficiente potencia de cómputo a todos nuestros deseos, decisiones y opiniones; siendo capaces de saber con exactitud quiénes somos.

Aún más allá el algoritmo puede mejorarse; hoy en día. Algunos ingenieros están desarrollando programas informáticos capaces de detectar las emociones humanas sobre la base de los movimientos de nuestros ojos y músculos faciales. Añadamos una buena cámara a la televisión y ese programa sabrá qué nos hizo reír, qué escenas nos animaron y qué escenas nos aburrieron. A continuación, conectaremos al algoritmo sensores biométricos para medir y saber de qué modo cada fotograma ha influido en nuestro ritmo cardíaco, nuestra tensión sanguínea y nuestra actividad cerebral; mientras vemos, pongamos el caso, la película de Pulp Fiction de Tarantino con toda la montaña rusa de emociones.

En algunos países, en determinadas ocasiones quizá la gente no tendrá ninguna opción y se vea obligada a utilizar las decisiones de los algoritmos de macrodatos.    Incluso en sociedades supuestamente libres los algoritmos pueden ir ganando autoridad , de igual forma que aprendemos por experiencia a confiar en ellos en cada vez más cuestiones, poco a poco perderemos nuestra capacidad de tomar decisiones por nosotros mismos.

Piensa simplemente en la manera en que en las dos últimas décadas, miles de millones de personas han llegado a confiar en el algoritmo de búsqueda de Google. Una de las tareas más importantes de todas, buscar información relevante y fidedigna; ya no buscaremos información, en lugar de ello solo Googolearemos, y confiaremos cada vez más en Google. En consecuencia, nuestra capacidad para buscar información por nosotros mismos disminuye. Ya hoy en día la verdad viene definida por los primeros resultados de la búsqueda de Google.

Esto ha ido ocurriendo también en otras capacidades físicas como el espacio para orientarse y navegar. Google Maps te dice: a la derecha, y tu instinto a la izquierda y finalmente sigues tu instinto y terminas en un embotellamiento, atascado en el tránsito. Por lo tanto aprendes por experiencia a buscar en Google y al cabo de uno o 2 años crees a ciegas en lo que dice Google Maps. Y si el teléfono inteligente con Google Maps falla, te encontrarás completamente perdido. La capacidad de orientarse es como un músculo, si no la usas puedes perderlo.

        Una vez que empecemos a contar con la inteligencia artificial para decidir qué estudiar, dónde trabajar o con quién casarnos, la vida dejará de ser un drama de toma de decisiones. Las elecciones democráticas y los mercados libres de una vez por todas tendrán poco sentido.    

Cuando la autoridad se transfiera de los humanos a los algoritmos, quizá ya no veamos el mundo como el patio de juegos de individuos autónomos que se esfuerzan por tomar decisiones correctas, en lugar de ello podemos percibir todo el universo como un flujo de datos, entender a los organismos como poco más que modelos químicos y creer que la vocación cósmica de la humanidad, es crear un sistema de procesamiento de datos que todo lo abarque y después fusionarnos con él.

        Hoy en día ya nos estamos convirtiendo en minúsculos chips dentro de un gigantesco sistema de procesamiento de datos que todo lo abarca. Y que actualmente nadie entiende en realidad.    

        El coche filosófico    

Los filósofos llevan años debatiendo sobre el problema ético del auto autónomo que debe decidir si seguir de frente y atropellar a dos niños que van en busca de su pelota o virar bruscamente y poner en riesgo al pasajero profundamente dormido. Hasta ahora resulta vergonzoso que estos debates han tenido poca influencia sobre el comportamiento real,     porque en épocas de crisis los humanos suelen olvidar con demasiada frecuencia sus opiniones filosóficas y en cambio siguen sus emociones e instintos viscerales.

Al igual que todos los mamíferos los Homo Sapiens emplean las emociones para tomar rápidas decisiones de vida o muerte. Hemos heredado nuestra ira, nuestro miedo y nuestros deseos de millones de antepasados, los cuales ya pasaron los controles de calidad más rigurosos de la selección natural.

Así, si programamos un automóvil autónomo para que se detenga y ayude a los extraños en apuros, así lo hará contra viento y marea (al menos desde luego que insertemos una cláusula de excepción para situaciones de vendavales y marejadas). De manera parecida si nuestro automóvil autónomo se ha programado para pasar al otro carril a fin de esquivar a dos chicos que se encuentren en su trayectoria, podemos apostar la vida que será justo esto lo que haga, lo que significa que cuando diseñe su automóvil autónomo Toyota o Tesla convertirán el problema ético de la filosofía a un problema práctico de ingeniería.

    Sin duda los algoritmos filosóficos nunca serán perfectos, todavía habrá errores que acarreen heridos, muertos y pleitos complicados.  Sin embargo, para ocupar el lugar de los conductores humanos, los algoritmos no tienen que ser perfectos, sólo ser mejores que los humanos. Dado que los conductores humanos matan al año más de 1,000,000 de personas, no es pedir demasiado. ¿ A fin de cuentas qué preferiría el lector, que el coche que está junto al suyo lo conduzca un adolescente ebrio o un auto autónomo bien calibrado? Además ese auto autónomo contará con las ventajas de poder actualizar su software a lo más reciente en un instante, y trabajar con los otros autos en una red integrada para evitar accidentes.

Si permitimos que un computador evalúe solicitudes de empleo y lo programamos para que no discrimine en absoluto ni raza ni género. No cabe duda de que el ordenador en verdad pasará por alto estos factores     porque las computadas no tienen subconsciente. Desde luego será fácil diseñar un programa para evaluar solicitudes de empleo, pero siempre existirá el peligro de que los ingenieros introduzcan de alguna manera sus propios prejuicios inconscientes en el programa. Una vez que hayamos descubierto tales errores, seguramente será mucho más fácil corregir el programa que liberar a los humanos de sus prejuicios racistas y misóginos.

        Dictaduras digitales: ¿quién mandará y como?    

    La inteligencia artificial suele asustar porque la gente no cree que vaya a ser un robot siempre obediente, el problema real con los robots es justo lo contrario,  debemos temerlos porque probablemente obedecerán siempre a sus amos y nunca se revelaran. No hay nada malo en la obediencia ciega desde luego, mientras los robots sirvan a amos benignos. Incluso en la guerra, basarse en robots asesinos puede asegurar por primera vez en la historia, que las leyes de la guerra se respeten de verdad en el campo de batalla. A veces los soldados humanos se dejan llevar por las emociones y asesinan, saquean y violan transgrediendo así las leyes de la guerra.

Solemos asociar las emociones con la compasión, el amor y la empatía, pero en tiempos de guerra las emociones que predominan con demasiada frecuencia son: el miedo, el odio y la crueldad. Puesto que los robots carecen de emociones, puede confiarse en que siempre cumplirán al pie de la letra el código militar y que nunca se dejarán influir por temores u odios personales.

El 16 de marzo de 1968 en la aldea sudvietnamita de May Lai los soldados norteamericanos de un regimiento se volvieron locos y aniquilaron a unos 400 civiles. Este crimen de guerra fue el resultado de una iniciativa local de hombres que habían estado combatiendo durante varios meses, una guerra de guerrillas en la jungla: que no tuvo ninguna finalidad estratégica y contravino tanto el código legal, como la política militar estadounidense.     Esta masacre se debió a las emociones humanas, si Estados Unidos hubiera hecho uso de robots asesinos en Vietnam, la masacre de My Lai jamás se hubiera producido.

Un dictador desalmado, armado con estos robots asesinos nunca debería de temer que sus soldados se volvieron en su contra, con independencia de lo desalmadas o locas que fueran sus órdenes. Un ejército de robots habría estrangulado en su cuna a la Revolución Francesa en 1789 y si en el 2011 Hosni Mubarak hubiero dispuesto de un ejército de robots asesinos habría podido desplegarlos contra el populacho, sin temor a su traición. Un gobierno imperialista que se basara en un ejército de robots también podría librar guerras impopulares sin preocuparse de si los robots perdieran la motivación o de si sus familias organizaran protestas.

    El peligro no sé limita sólo a máquinas asesinas, también a sistemas de vigilancia que pudieran ser igualmente peligrosos.  En manos de un gobierno benévolo los algoritmos podrían hacer mucho por la humanidad. Pero esos algoritmos de macrodatos podrían empoderar a un Gran Hermano de modo que terminaríamos sometidos a un régimen de vigilancia Orwelliana en el que cada uno de los individuos fuera controlado todo el tiempo.

Mediante el uso de nuestro conocimiento creciente del cerebro humano y empleando los inmensos poderes del aprendizaje automático, el régimen norcoreano podría por primera vez en la historia, evaluar lo que todos y cada uno de sus ciudadanos está pensando en cualquier momento.

Tanto China como Rusia están mejorando sin cesar sus instrumentos de vigilancia. Como varios países democráticos más, desde Estados Unidos hasta Israel, ahora llamada la nación emprendedora que tiene un sector de alta tecnología muy dinámico y una industria puntera de ciberseguridad, al mismo tiempo está también involucrada en un conflicto letal con los Palestinos. Al menos algunos de sus dirigentes y ciudadanos se pondrían muy contentos si se creara un régimen de vigilancia total en Cisjordania, tan pronto como se disponga de la tecnología.

Los Palestinos pueden administrar algunas ciudades y pueblos de Cisjordania; pero los Israelíes controlan el cielo, las ondas de radio y el ciberespacio. Por lo tanto con muy pocos soldados los Israelíes controlan de forma efectiva alrededor de 2.5 millones de Palestinos.

A finales de siglo XX las democracias superan por lo general a las dictaduras porque estas son mejores procesando los datos. La democracia difunde el poder para procesar información y la toma de decisiones se hace entre muchas personas e instituciones; mientras que en las dictaduras se concentra la información y el poder en un punto. Dado que la tecnología del siglo pasado era ineficiente, al concentrar demasiada información y poder en un punto, nadie tenía la capacidad de procesar toda la información con suficiente rapidez y de tomar las decisiones adecuadas. Ese fue la razón por la que la Unión Soviética tomó las decisiones mucho peores que Estados Unidos; por lo que la economía Soviética se hallaba muy detrás de la Norteamericana.

        Si concentramos toda la información relacionada con mil millones de personas en una única base de datos, sin tener en cuenta los problemas de privacidad, podemos preparar algoritmos mucho mejores que sí respetamos la intimidad individual. En nuestra base de datos sólo disponemos de información parcial de algunos individuos.    

Incluso si la democracia consigue adaptarse y sobrevivir en el 2050 y mas, las personas podrían ser víctimas de nuevos tipos de opresión y discriminación. En la actualidad hay cada vez más bancos, empresas e instituciones que emplean algoritmos para analizar datos y tomar decisiones sobre nosotros.  Cuando solicitamos un préstamo al banco es probable que nuestra solicitud sea procesada por un algoritmo y no por un humano. El algoritmo analiza muchísimos datos y estadísticas sobre nosotros y acerca de millones de otras personas. Decide si somos lo bastante solventes como para concedernos el préstamo, a menudo el trabajo que realiza el algoritmo es mejor que el que realiza un banquero humano.

En las más altas esferas de la autoridad probablemente seguirá habiendo hombres de paja humanos que nos generarán la ilusión de que los algoritmos sólo son consejeros y que la autoridad última se halla todavía en manos humanas. No designaremos a una inteligencia artificial como el canciller de Alemania o el Director Ejecutivo de Google. Sin embargo las decisiones que tomarán el canciller o el Director Ejecutivo estarán determinadas por la inteligencia artificial.  El canciller podría elegir todavía entre varias opciones pero todas serían resultado del análisis de macrodatos y reflejarán más la manera de cómo la inteligencia artificial entiende el mundo y la manera como lo entienden los humanos. Por poner un ejemplo análogo, en la actualidad los políticos de todo el mundo pueden elegir entre varias políticas económicas diferentes, pero en casi todos los casos las diversas políticas que se ofrecen reflejan una perspectiva capitalista de la economía.

        Inteligencia artificial y estupidez natural.    

Cada vez nos basamos más en los algoritmos para que tomen decisiones por nosotros, pero es imposible que empiecen conscientemente a manipularnos. La ciencia ficción suele confundir la inteligencia con la conciencia y supone que para equiparar la inteligencia humana o superarla, las computadoras tendrían que desarrollar conciencia. El argumento básico de casi todas las películas y novelas sobre Inteligencia Artificial gira entorno al instante mágico en el que el ordenador o un robot adquiere conciencia.

Pero en realidad no hay razón para suponer que la inteligencia artificial adquiera conciencia, porque inteligencia y conciencia son cosas muy distintas. La inteligencia es la capacidad de resolver problemas y la conciencia es la capacidad de sentir dolor, alegría, amor e irá., culpa o remordimiento  Tendemos a confundir estas cosas porque en los humanos y en otros mamíferos, la inteligencia va de la mano de la conciencia. Los humanos resuelven la mayor parte de sus problemas mediante razonamientos y sentimientos, sin embargo los ordenadores los resuelven de una manera diferente.

        Desde luego, no es del todo imposible que la inteligencia artificial desarrolle sentimientos propios, todavía no sabemos bastante de la conciencia como para estar seguros de esto.    

En general hay tres opciones que es necesario considerar con respecto a la inteligencia y la conciencia:

1.- La conciencia está relacionada de algún modo con la bioquímica orgánica de tal manera que nunca será posible crear la conciencia en sistemas no orgánicos.

2.- La conciencia no está relacionada con la bioquímica orgánica pero sí con la inteligencia. De tal manera que los ordenadores podrían desarrollar conciencia y podrían hacerlo si pueden superar un determinado umbral de inteligencia.

3.- No existen conexiones esenciales entre la conciencia y la bioquímica orgánica o la inteligencia superior. Por tanto los ordenadores no podrán desarrollar conciencia.

Es improbable que nos enfrentemos a una rebelión de robots en las décadas venideras. Pero podríamos vernoslas con multitud de bots que saben como pulsar nuestros botones emocionales  mejor que nuestra madre; utilizando esa asombrosa capacidad para intentar vendernos cosas, ya sea un automóvil, un político o una ideología completa. Los bots podrían identificar nuestros temores, odios y antojos más profundos y utilizar esa ventaja contra nosotros.

Mi jefe quiere que conteste los mensajes electrónicos tan rápidamente como sea posible; pero le interesa poco mi capacidad de saborear y apreciar los manjares que como. En consecuencia, reviso los mensajes electrónicos incluso durante las comidas, al tiempo que pierdo mi capacidad de prestar atención a mis propias sensaciones. El sistema económico me presiona para que expanda y diversifique mi cartera de valores; pero me da cero incentivos para expandir y diversificar mi compasión. De modo que me esfuerzo para entender los misterios de la bolsa de valores, al tiempo que dedico mucho menos esfuerzo a entender las causas profundas de mi sufrimiento.

Ahora estamos creando humanos mansos que generan cantidades enormes de datos, y funcionan como chips muy eficientes en un enorme mecanismo de procesamiento de datos. Pero esos datos en absoluto no maximizan el potencial humano.

De hecho no tenemos ni idea de cuál es el potencial humano completo, porque sabemos muy poco de la mente humana, sin embargo, apenas invertimos en su investigación y en cambio nos centramos en aumentar la velocidad de nuestras conexiones a internet y la eficiencia de nuestros algoritmos de macrodatos.

    Las dictaduras digitales no son el único peligro que nos espera.  Junto a la libertad, el orden liberal depositó también muchas esperanzas en el valor de la igualdad y el liberalismo siempre valoró la igualdad política. Realmente también llegó al convencimiento de que la igualdad económica tiene casi la misma importancia, porque sin sistema de seguridad social y una igualdad económica mínima, la libertad no tiene sentido. Pero de la misma manera que los algoritmos de macrodatos podrían acabar con la libertad, podrían al mismo tiempo crear las sociedades más desiguales que jamás hayan existido. Toda la riqueza y todo el poder podrían estar concentrados en manos de una élite minúscula, mientras que la mayoría de la gente sufriría no la explotación sino algo mucho peor: la irrelevancia.

        Comentarios    

En este capítulo Yubal analiza cada una de las partes del humanismo liberal que se verían amenazadas por los algoritmos de macrodatos, empezando por la democracia, el sistema de libre mercado, la igualdad política, la dinámica de los ejércitos robotizados y la necesidad de la seguridad social. Además, hace ver que cada vez permitimos más a esos algoritmos que influyan en nosotros como en las búsquedas de información en Google o navegar en las ciudades con Google Maps para tomar decisiones relevantes de nuestra vida diaria.


Publicado

en

por

Etiquetas:

Comentarios

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.