Μπορούν να λογοδοτήσουν οι…αλγόριθμοι; Κι όμως! Μια ομάδα Αμερικανών Δημοκρατικών γερουσιαστών επανέφερε προς έγκριση τον λεγόμενο «Νόμο Αλγοριθμικής Λογοδοσίας» (Algorithmic Accountability Act).
Ο νόμος που εκκρεμεί από το 2019, θα δίνει στην Ομοσπονδιακή Επιτροπή Εμπορίου (FTC) την εξουσία να απαιτεί από τις μεγάλες εταιρείες να ελέγχονται για μεροληψία και αδιαφάνεια , υπό την επίφαση των δήθεν αντικειμενικών αλγόριθμων. ‘Ο Γερουσιαστής του Ορεγκον, Ρον Γουάιντεν, εκ των εισηγητών του νόμου κάνει λόγο για «ένα ορόσημο που θα επιφέρει νέα διαφάνεια και επίβλεψη του λογισμικού, των αλγορίθμων και άλλων αυτοματοποιημένων συστημάτων που χρησιμοποιούνται για τη λήψη κρίσιμων αποφάσεων για την κάθε πτυχή της ζωής των πολιτών».
Ο νόμος αφορά εταιρείες με τζίρο πάνω από 50 εκατομμύρια δολάρια, οι οποίες λαμβάνουν αυτοματοποιημένες αποφάσεις που αφορούν περισσότερους από ένα εκατομμύριο καταναλωτές. «Αν κάποιος αποφασίσει να μην σας νοικιάσει ένα σπίτι λόγω του χρώματος του δέρματός σας, αυτό είναι κατάφωρη παράνομη διάκριση. Η χρήση ενός ελαττωματικού αλγόριθμου ή λογισμικού που οδηγεί σε διακρίσεις και μεροληψία είναι εξίσου κακή», λέει ο Δημοκρατικός Γερουσιαστής και εξηγεί: «Το νομοσχέδιό μας θα αποκαλύψει τους μυστικούς αλγόριθμους, που μπορούν να αποφασίζουν εάν οι Αμερικανοί μπορούν να δουν έναν γιατρό, να νοικιάσουν ένα σπίτι ή να πάνε σε σχολείο. Η διαφάνεια και η λογοδοσία είναι απαραίτητες για να δίνεται στους καταναλωτές η δυνατότητα επιλογής και να παρέχονται στους υπεύθυνους χάραξης πολιτικής οι απαραίτητες πληροφορίες για κρίσιμες αποφάσεις», τονίζει ο Γουάιντεν.
Η γερουσιαστής του Ουϊσκόνσιν Τάμι Μπάλντουιν που επίσης στηρίζει την πρωτοβουλία, λέει ότι «πολύ συχνά, οι αλγόριθμοι της Big Tech βάζουν τα κέρδη πάνω από τους ανθρώπους, από τον αρνητικό αντίκτυπο στην ψυχική υγεία των νέων, μέχρι τις διακρίσεις εις βάρος των ανθρώπων με βάση τη φυλή, την εθνικότητα ή το φύλο». Είναι ώρα, τονίζει η Δημοκρατική γερουσιαστής, «το αμερικανικό κοινό και οι υπεύθυνοι χάραξης πολιτικής, να ρίξουν μια ματιά κάτω από την κουκούλα και να δουν πώς χρησιμοποιούνται αυτοί οι αλγόριθμοι και ποια επόμενα βήματα πρέπει να γίνουν για την προστασία των καταναλωτών»
«Αλγοριθμοποίηση» της καθημερινής ζωής
Για παράδειγμα, οι μηχανές αναζήτησης, οι οποίες ιεραρχούν την πληροφορία για να «αποφασίσουν» ποια αποτελέσματα είναι καταλληλότερα για την προσωπική αναζήτηση του κάθε χρήστη στο διαδίκτυο: Τα περισσότερα από τα μέσα που χρησιμοποιούνται για αυτό σήμερα είναι αλγοριθμικά και γι’ αυτό οι Δημοκρατικοί γερουσιαστές μιλούν για «αλγοριθμοποίηση» της καθημερινής ζωής. Οι αλγόριθμοι όμως δεν είναι αντικειμενικοί. «Σε αρκετά συστήματα υπάρχει αλγοριθμική προκατάληψη, συνήθως σε βάρος των πιο ευάλωτων κοινωνικών ομάδων, με αποτέλεσμα την όξυνση των ταξικών ανισοτήτων», γράφει η Αμερικανίδα μαθηματικός και συγγραφέας Κάθι Ο’ Νιλ στο βιβλίο της της «Weapons of MathDestruction» (Οπλα Μαθηματικής καταστροφής).
Η Κάθι Ο’ Νιλ εξερευνά τον κόσμο των Big Data και «τον ύπουλο, ταχέως αναπτυσσόμενο έλεγχό τους σε σχεδόν κάθε πτυχή της σύγχρονης ζωής», όπως γράφει. «Οι αλγόριθμοι των υπολογιστών που η ίδια αποκαλεί «όπλα μαθηματικής καταστροφής», έχουν καταλάβει τις ανθρωποκεντρικές διαδικασίες. Προκειμένου να κατανοήσει γιατί οι ελαττωματικοί, επεμβατικοί νέοι αλγόριθμοι είναι τόσο διαδεδομένοι και ισχυροί, η Ο’ Νιλ διερευνά το ρόλο των μαθηματικών μοντέλων σε μερικούς από τους πιο σημαντικούς θεσμούς της ανθρωπότητας: σχολεία, ασφαλιστικές εταιρείες, το δικαστικό σύστημα και πολλά άλλα: Ποιος μπορεί να αγοράσει ένα ασφαλιστικό πρόγραμμα, πώς μαθαίνουν οι μαθητές, πώς οι πολιτικοί διεξάγουν τις καμπάνιες τους , και τι είδους ποινές λαμβάνουν οι εγκληματίες. « Ενώ οι αυτοματοποιημένες αποφάσεις παρουσιάζονται ως ουδέτερες και δημοκρατικές, για παράδειγμα στην αντιμετώπιση της εγκληματικότητας, τείνει να προτιμάται η χρήση συστημάτων αναγνώρισης προσώπου, παρά το γεγονός ότι η εν λόγω τεχνολογία λειτουργεί ατελώς για όσους δεν ανήκουν στη λευκή φυλή και οδηγεί σε τεράστια λάθη».
Η Ο’ Νιλ έχει χρησιμοποιήσει τις δεξιότητές της ως καθηγήτρια μαθηματικών και αναλύτρια δεδομένων για να αποκαλύψει τη λεγόμενη «οικονομία των Big Data» στην εποχή της οικονομικής κρίσης 2007-2008. Μια κρίση που ξεκίνησε επειδή οι δανειστές χρησιμοποιούσαν στεγαστικά δάνεια υψηλού κινδύνου με αποτέλεσμα -όπως λέει-«μια ολόκληρη οικονομία να χτίζεται πάνω στο τίποτα».
Αδιαφανή «όπλα»
Τα «όπλα μαθηματικής καταστροφής» πρέπει να πληρούν μερικά βασικά κριτήρια, γράφει η Αμερικανίδα μαθηματικός στο βιβλίο της:: πρέπει να είναι «αδιαφανή», ευρέως διαδεδομένα και επιζήμια. Με άλλα λόγια, οι μέθοδοι συλλογής δεδομένων τους (ή οι σκοποί για τους οποίους χρησιμοποιούνται αυτά τα δεδομένα) πρέπει να είναι δύσκολο να αποκρυπτογραφηθούν, η επιρροή τους πρέπει να είναι τεράστια και πρέπει να δημιουργούν δυσκολίες ή να βαθαίνουν την ανισότητα στην κοινωνία. «Οι μηχανές, σε αντίθεση με τους ανθρώπους, δεν έχουν έννοια της δικαιοσύνης. Αντίθετα, κάνουν τη σύγχρονη ζωή πιο άνιση (και πιο αυτοματοποιημένη).
Για να καταδείξει πόσο καταστροφικοί είναι αυτοί οι αλγόριθμοι, η Ο` Νιλ λέει ότι έχουν διεισδύσει στη διαδικασία εισαγωγής στα κολέγια, στις κατατάξεις των κολεγίων , στην εύρεση εργασίας ,καθορίζουν ακόμη και το ποιος είναι κατάλληλος για πιστωτικές κάρτες και δάνεια . Κατέληξε μάλιστα στο συμπέρασμα ότι οι αλγόριθμοι απειλούν μεγάλο μέρος της αμερικανικής κοινωνίας. Τα ίδια δεδομένα που ενθαρρύνουν τα κερδοσκοπικά κολέγια να στέλνουν επιθετικές διαφημίσεις και τις αρχές επιβολής του νόμου να χρησιμοποιούν λογισμικό προληπτικής αστυνόμευσης στους ανθρώπους, με βάση τον «κίνδυνο» που αντιπροσωπεύουν για την κοινωνία.
«Καθώς οι αλγόριθμοι και άλλα αυτοματοποιημένα συστήματα λήψης αποφάσεων αναλαμβάνουν ολοένα και πιο εξέχοντα ρόλο στη ζωή μας, έχουμε την ευθύνη να διασφαλίσουμε ότι θα αξιολογούνται επαρκώς για προκαταλήψεις που μπορεί να βλάψουν μειονοτικές ή περιθωριοποιημένες κοινότητες», λέει ο Δημοκρατικός γερουσιαστής του Νιού Τζέρσι, Κόρι Μπούκερ. «Όταν οι αλγόριθμοι καθορίζουν ποιος πηγαίνει στο κολέγιο, ποιος εξασφαλίζει υγειονομική περίθαλψη, ποιος παίρνει σπίτι, ακόμη και ποιος πηγαίνει στη φυλακή, η αλγοριθμική διάκριση πρέπει να αντιμετωπίζεται ως ένα εξαιρετικά σημαντικό ζήτημα» τονίζει ο Μπούκερ και προσθέτει: «Αυτές οι μεγάλες και σημαντικές αποφάσεις, οι οποίες στερούνται ολοένα και περισσότερο ανθρώπινης παρέμβασης, αποτελούν τα θεμέλια της κοινωνίας πάνω στο οποίο θα ζήσουν οι επόμενες γενιές»
Ερχεται το …ιππικό
Το νομοσχέδιο έχει υποστηριχθεί μόνο από τους Δημοκρατικούς. Τα προηγούμενα νομοσχέδια που προσπαθούσαν να ρυθμίσουν τις επιπτώσεις από την τεχνητή νοημοσύνη δεν είχαν τύχη. Αλλά τώρα έρχεται το… ιππικό: Οι Δημοκρατικοί ρίχνουν το βάρος τους πίσω από την Ομοσπονδιακή Επιτροπή Εμπορίου (FTC) και τη νέα πρόεδρό της, Λίνα Χαν, καθηγήτρια στο Κολούμπια , ειδική σε θέματα επιβολής κανόνων ενάντια στις βλάβες της τεχνητής νοημοσύνης. Η Λίνα Χαν έχει ήδη ανακοινώσει ότι εξετάζει τον περιορισμό των χαλαρών πρακτικών ασφάλειας, των αλγοριθμικών διακρίσεων και των καταχρήσεων από τις εταιρείες των Big Data.
*Το άρθρο δημοσιεύθηκε στο naftemporiki.gr