Προ ημερών, στο περιοδικό Wire κατέφθασε σωρεία καταγγελιών. Ήταν από 14 διανομείς-μηνυτές της Uber Eats στη Βρετανία.

Αιτία; Η χρήση της τεχνολογίας αναγνώρισης προσώπου από τη συγκεκριμένη υπηρεσία και τη μητρική εταιρία online παροχών μεταφορών εν γένει, για την ταυτοποίηση απασχολούμενων…

Η ίδια η Uber κάνει λόγο για εργαλείο «σύγκρισης φωτογραφιών» μέσω της τεχνητής νοημοσύνης (ΑΙ). Πώς;

Όλοι οι συμβεβλημένοι στην Uber Eats διανομείς καλούνται να ανεβάζουν στην εταιρική εφαρμογή μία selfie, πριν ξεκινήσουν βάρδια. Aυτή συγκρίνεται στη συνέχεια με τα αρχεία της εταιρείας.

Το ζητούμενο είναι να γίνει ταυτοποίηση και να αποκλειστεί το ενδεχόμενο υπερεργολαβίας, που σε πολλές χώρες απαιτεί ρήτρα στην αδειοδότηση ανάλογων ηλεκτρονικών πλατφορμών της αποκαλούμενης «gig οικονομίας».

Ρατσιστική… η ΑΙ;

Σύμφωνα με τους 14 μηνυτές, το σύστημα ταυτοποίησης της Uber προέκυψε άκρως… ρατσιστικό. Το λογισμικό αδυνατούσε να αναγνωρίσει και να επαληθεύσει τα σκουρόχρωμα πρόσωπά τους.

Το αποτέλεσμα ήταν κάποιοι να χάσουν τους δουλειές τους και κάποιοι άλλοι να χάσουν μεροκάματα, που ήταν απαραίτητα για τη διαβίωσή τους.

Άλλων προσωρινά, άλλων μόνιμα, οι λογαριασμοί τους στην πλατφόρμα «πάγωσαν» ή διαγράφηκαν. Η απάντηση στα μηνύματα που έστειλαν στην εταιρεία, ζητώντας πίσω τις θέσεις εργασίας τους, ήταν για όλους η ίδια. Η Uber ζητούσε την κατανόησή τους…

Αυτή δεν ήταν πάντως καν η πρώτη φορά που προέκυπτε ένα τέτοιο θέμα. Το 2019, ένας Αφροαμερικανός οδηγός είχε μηνύσει την ίδια εταιρεία μετά την απόλυσή του, διαμαρτυρόμενος για το γεγονός ότι το λογισμικό της αδυνατούσε να τον ταυτοποιήσει, κυρίως όταν είχε νυχτερινές βάρδιες…

Τεχνικά και ηθικά προβλήματα

Ειδικοί τονίζουν ότι υπάρχουν πολλοί παράγοντες που μπορεί να επηρεάσουν την αποτελεσματικότητα της τεχνολογίας αναγνώρισης προσώπου. Μπορεί να κυμαίνονται από τον φωτισμό, έως την ποιότητα της κάμερας που έχει καθείς στο κινητό του.

Όπως και να έχει, πρόσφατη έρευνα σε 189 διαφορετικά συστήματα ταυτοποίησης προσώπου κατέδειξε ότι όλα ανεξαιρέτως παρουσίασαν προβλήματα στη λειτουργία τους, όταν οι χρήστες δεν ήταν λευκοί…

«Δεν υπάρχει λογισμικό αναγνώρισης προσώπου που να λειτουργεί το ίδιο σε διαφορετικές εθνικότητες. Αυτή η τεχνολογία δεν υπάρχει», λέει ο καθηγητής Πίτερ Φάσι, κοινωνιολόγος στο Πανεπιστήμιο του Έσεξ Essex, με ειδίκευση σε λογισμικά αναγνώρισης προσώπου.

«Εάν εισάγει, λοιπόν, κανείς αυτήν την τεχνολογία σε ένα ήδη άνισο περιβάλλον», επισημαίνει, «απλώς επιδεινώνει αυτές τις συνθήκες και ενισχύει τη φυλετική ανισότητα».

Προσλήψεις μέσω λογισμικού

«Ειλικρινά, ήταν λίγο αγχωτική η επίγνωση ότι την αίτησή μου για δουλειά  θα την έκρινε ένας υπολογιστής κι όχι άνθρωπος», εξιστορεί τη δική της εμπειρία με την ΑΙ η οικονομική συντάκτρια του δικτύου BBC Άντρια Μιούραντ.

«Είχα στείλει πρόσφατα το βιογραφικό μου για μία νέα θέση εργασίας», εξηγεί, «και το πρώτο μέρος της διαδικασίας έγινε με εμένα στο σπίτι, μπροστά στον υπολογιστή, να δοκιμάζομαι σε απλά διαδικτυακά παιχνίδια».

Την έβαλαν να μετρήσει γρήγορα τελίτσες, που ήταν μέσα σε δύο πλαίσια. Να φουσκώσει ένα μπαλόνι κλικάρωντας με το ποντίκι της. Να αντιστοιχίσει emoji με συναισθήματα.

Και κάπως έτσι, ένα λογισμικό ΑΙ μέτρησε με αλγόριθμους τα προσόντα της και την προσωπικότητά της.

Εάν η Άντρια είχε περάσει το τεστ, το επόμενο στάδιο θα ήταν μία βιντεοκλήση από κάποιο μέλος του ανθρώπινου δυναμικού της εταιρείας, όπου είχε κάνει αίτηση πρόσληψης. Ποτέ, όμως, δεν έλαβε τέτοια κλήση…

Τεχνολογία διακρίσεων…

Η διαδικασία εφαρμόζεται πια κατά κόρον, πρωτίστως σε πολυεθνικές, πλέον όμως και σε μικρότερες εταιρείες, ένεκα πανδημίας.

Έρευνα προ του κοροναϊού, το 2019, είχε καταδείξει ότι, μέχρι το 2029, η τεχνητή νοημοσύνη θα έχει αντικαταστήσει τουλάχιστον το 16% του ανθρώπινου δυναμικού και στον τομέα των προσλήψεων. Τώρα, η υγειονομική κρίση εκτιμάται ότι έχει ενισχύσει έτι περαιτέρω αυτή τη νέα τάση.

Αρκετοί υποστηρίζουν ότι είναι προς το καλύτερο, κρίνοντας ότι η ΑΙ μπορεί να είναι πιο δίκαιη, μιας και δεν μπορεί να μεροληπτεί.  Πίσω, όμως, στο όχι μακρινό 2018 λέγεται (γιατί δεν έχει επισήμως επιβεβαιωθεί) ότι η Amazon εγκατέλειψε τη χρήση ενός τέτοιου, προηγμένης τεχνολογίας λογισμικού, όταν διαπιστώθηκε ότι και μεροληπτικό ήταν, και… μισογύνες.

Το πρακτορείο Reuters τότε ανέφερε ότι το εν λόγω σύστημα ΑΙ της Amazon «είχε “διδαχθεί” πως ήταν προτιμητέοι οι άρρενες υποψήφιοι», επειδή τα βιογραφικά τους ήταν συνήθως πλουσιότερα και οι ίδιοι είχαν περισσότερη κατάρτιση και εμπειρία.

«Με ανησυχεί πολύ κάθε φορά που ακούω κάποιον να λέει ότι η χρήση της AI σε προσλήψεις μπορεί να έχει μόνο οφέλη», λέει στο BBC η Σάντα Γουότσερ, καθηγήτρια και ερευνήτρια στην ΑΙ, στο πανεπιστήμιο της Οξφόρδης.

«Η μηχανική εκμάθηση λειτουργεί με τον ίδιο βασικό τρόπο – επεξεργάζονται βάσεις δεδομένα και βρίσκουν μοτίβα και ομοιότητες», τονίζει.

«Έτσι, λοιπόν, στις προσλήψεις, η επιλογή γίνεται με βάση δεδομένα από το παρελθόν». Το αποτέλεσμα είναι σήμερα να υπάρχει «σοβαρός κίνδυνος κάποιοι να μπαίνουν σε δεύτερη μοίρα», επισημαίνει. Μέχρι σήμερα, είναι οι γυναίκες και μειονότητες. Αύριο, ποιος ξέρει…

Γράψτε το σχόλιό σας

Ακολουθήστε το στο Google News και μάθετε πρώτοι όλες τις ειδήσεις
Δείτε όλες τις τελευταίες Ειδήσεις από την Ελλάδα και τον Κόσμο, στο