Il·lustració cortesia de: Joe M.

Els algorismes ens expliquen com pensar, i això ens canvia

Quan els ordinadors aprenen a imitar-nos, comencem a ser més semblants a ells?

Silicon Valley preveu cada cop més com respondrem a un correu electrònic, respondrem a la foto d’Instagram d’una altra persona, quins serveis governamentals podem utilitzar i aviat un futur assistent de Google ens pot trucar perruqueria. El temps.

Hem convidat algoritmes pràcticament a tot arreu, des d’hospitals i escoles fins a les sales de cort. Estem envoltats d’automatització autònoma. Les línies de codis ens poden dir què veure, a qui veiem fins ara i a qui el sistema judicial hauria d’enviar a la presó.

Ens equivoquem al lliurar tant de poder de decisió i control sobre les línies de codi?

Estem obsessionats amb els processos matemàtics perquè ens donen respostes ràpides i precises a diversos problemes complexos. Els sistemes d'aprenentatge de màquines s'han implementat en gairebé totes les àrees de la nostra societat moderna.

El que ens hauríem de demanar és: ens equivoquem passant tanta presa de decisions i control sobre les línies de codi? I com afecten els algoritmes a les nostres vides?

En un món en constant transformació, les màquines fan una feina excel·lent per aprendre com es comporten les persones, el que ens agrada i l’odi, i el que és millor per a nosaltres a un ritme ràpid. Actualment vivim a les sales de la tecnologia de predicció. Oh, hi ha autocomplerts!

Els algoritmes han canviat la nostra vida dràsticament ordenant les enormes dades i proporcionant-nos resultats instantanis rellevants. Recopilant grans quantitats de dades, al llarg dels anys hem proporcionat a les empreses la capacitat de decidir què és el que ens convé més.

Empreses com Alphabet o Amazon han subministrat els seus respectius algoritmes amb les dades recollides i han instruït AI per utilitzar la informació recopilada per adaptar-se a les nostres necessitats i fer-nos més similars a nosaltres. Parlem i ens comportem més com un ordinador quan ens acostumem a aquestes funcions pràctiques?

"Els algoritmes no són inherentment justos perquè la persona que crea el model defineix l'èxit". - Cathy O'Neil, científica de dades

Amb aquesta velocitat tecnològica, és impossible imaginar un futur proper en què el nostre comportament estigui guiat o dictat per algoritmes. De fet, ja està passant.

Google està dissenyat per ajudar-vos a escriure missatges o respondre ràpidament a preguntes. L'última funció de Gmail, Smart Replies, es va presentar l'octubre passat. Atès que molta gent ha agafat internet per tempesta, van criticar a l'assistent i van dir que els seus suggeriments personalitzats eren invasius, van fer que la gent semblés màquines, i alguns fins i tot van argumentar que les seves respostes podrien afectar en última instància la manera de comunicar-nos o possiblement. canviar l’etiqueta de correu electrònic.

El principal problema d’algoritmes, si es converteixen en tan grans i complexos que afecten negativament la nostra societat actual, posen en perill la democràcia - Hola Mark Zuckerberg, o bé involucren els ciutadans en mesures orwellianes com la Xina, mitjançant la solvència de la gent. El seguiment avalua el seu comportament amb un programa de vigilància distòpica.

Perquè l’aprenentatge automàtic s’està fent més habitual en moltes àrees de la societat. Alguns algoritmes governen el món i es faran càrrec dels nostres pensaments?

Ara seguim l'enfocament de Facebook. El 2015 van llançar una versió més recent del canal de notícies, que permet als usuaris integrar de forma intel·ligent el feed en un diari personalitzat i publicar contingut que prèviament els agradava, van compartir i van comentar.

El problema dels algorismes "personalitzats" és que els usuaris poden entrar en bombolles de filtre o cambres de ressò. A la vida real, la majoria de les persones tenen molta menys tendència a considerar problemes que consideren confusos, molestos, equivocats o repugnants. Amb els algorismes de Facebook, ofereixen als usuaris el que volen, de manera que cada alimentació de persones es converteixi en un món únic. Una realitat inconfusible en si mateixa.

Les bombolles de filtre fan que el debat públic sigui cada cop més difícil, ja que la informació i la desinformació semblen exactament iguals des de la perspectiva del sistema. Tal com va escriure recentment Roger McNamee a Time Magazine: "A Facebook, els fets no són fets absoluts. Són una elecció que inicialment es deixa als usuaris i als seus amics, però després s’amplia mitjançant algoritmes de promoció de compromisos. "

Les bombolles filtradores creen la il·lusió que tothom creu en les mateixes coses que fem o tenen els mateixos hàbits. Com ja sabem, els algoritmes a Facebook van agreujar el problema augmentant la polarització i perjudicant en última instància la democràcia. Amb proves que demostren que els algoritmes podrien haver influït en un referèndum del Regne Unit o en les eleccions dels Estats Units del 2016

"Els algorismes de Facebook promouen missatges extrems sobre neutres, cosa que pot provocar desinformació sobre informació, teories de conspiracions sobre fets". - Roger McNamee, inversor de Silicon Valley

En el món actual, que està constantment ple d’amenaça d’informació, la navegació és un repte important per a algunes persones. L'IA - usada de forma sàvia - pot millorar l'experiència en línia d'algú o ajudar-los a afrontar el contingut que creix sempre ràpidament. Tanmateix, per funcionar correctament, els algoritmes necessiten dades precises sobre el que passa al món real.

Les empreses i els governs han de vetllar perquè les dades de l'algorisme no siguin distorsionades o inexactes. Com que res no és perfecte, es pot esperar que les dades esbiaixades es trobin en molts algoritmes i això no només posa en perill el nostre món en línia, sinó també el físic, real.

Cal treballar absolutament per implementar marcs normatius més estrictes perquè no acabem en un oest salvatge tecnològic.

Hauríem de tenir molta cura amb el rendiment que donem algoritmes. Sorgeixen preocupacions sobre els problemes de transparència que comporten els algoritmes, les implicacions ètiques de les decisions i processos que prenen i les conseqüències socials per a les persones.

Per exemple, la IA utilitzada a les sales de tribunals pot augmentar el biaix i discriminar les minories considerant “factors de risc” com els seus barris i les connexions amb la criminalitat. Aquests algoritmes podrien cometre errors sistemàticament catastròfics i enviar persones reals innocents a la presó.

"Estem en perill de perdre la nostra humanitat?"

Com a expert en seguretat, Bruce Schneier va escriure al seu llibre Feu clic aquí per matar a tothom: "Si fem que els ordinadors pensin per ells mateixos i les dades d'entrada subjacents siguin danyades, pensaran malament i potser no ho sabrem mai".

Hannah Fry, matemàtica de la University College de Londres, ens trasllada a un món on els ordinadors funcionen lliurement. Al seu recent llibre Hello World: Being Human in the Age of Algorithms, defensa que els ciutadans hem de parar més atenció a les persones que hi ha darrere del teclat, les que programen els algorismes.

"No hem de crear un món on les màquines ens expliquin què fer o com pensar, tot i que potser acabem en un món així", diu. Al llarg del llibre, ella pregunta sovint: "Estem en perill de perdre la nostra humanitat?"

De moment no estem en la fase en què la gent no està a la imatge. El nostre paper en aquest món no s’ha desfet i trigarà molt. Les persones i les màquines poden treballar conjuntament amb els seus punts forts i febles. Les màquines són defectuoses i cometen els mateixos errors que nosaltres. Hauríem d’anar amb compte de quanta informació i energia renunciem, ja que els algoritmes són una part integral de la humanitat en l’actualitat i ja no van enlloc tan ràpidament.