«Χτίζοντας» την τεχνητή νοημοσύνη – Πώς οι αφανείς εργαζόμενοι προπονούν τα συστήματα
Πίσω από την τεχνητή νοημοσύνη βρίσκονται εργαζόμενοι που αγόγγυστα συμβάλλουν στη βελτίωση των συστημάτων
Πίσω από την τεχνητή νοημοσύνη βρίσκονται καλά κρυμμένοι χιλιάδες εργαζόμενοι που την «προπονούν» με στόχο να την κάνουν πιο έξυπνη και πιο λειτουργική για χάρη των ανθρώπων.
Πολλοί από αυτούς καταλήγουν κακοπληρωμένοι και εξαντλημένοι, μέσα στον κυκεώνα των πληροφοριών που είναι υποχρεωμένοι να αξιολογούν σε καθημερινή βάση για να βελτιώσουν τα συστήματα ΑΙ.
«Διδάσκοντας» την τεχνητή νοημοσύνη
Την άνοιξη του 2024, όταν η Ρέιτσελ Σόγιερ, τεχνική συγγραφέας από το Τέξας, έλαβε ένα μήνυμα στο LinkedIn από έναν recruiter που προσλάμβανε για μια ασαφή θέση με τίτλο «αναλυτής γραφής», υπέθεσε ότι θα ήταν παρόμοιο με τις προηγούμενες δουλειές της στη δημιουργία περιεχομένου. Την πρώτη της μέρα στη δουλειά οι προσδοκίες της διαλύθηκαν. Αντί να γράφει η ίδια κείμενα, η δουλειά της ήταν να αξιολογεί και να επιτηρεί περιεχόμενο που παραγόταν από τεχνητή νοημοσύνη.
Αρχικά, η εργασία της περιλάμβανε έλεγχο σημειώσεων από συναντήσεις και συνομιλιών που συνοψίζονταν από το Gemini της Google και, σε ορισμένες περιπτώσεις, αξιολόγηση μικρών ταινιών που δημιουργούσε η AI.
«Σοκαρίστηκα που η δουλειά μου περιλάμβανε τόσο σκληρό υλικό».
Κατά διαστήματα, της ζητήθηκε να χειρίζεται ακραίο περιεχόμενο, να επισημαίνει βίαιο ή σεξουαλικά υλικό που παρήγαγε το Gemini, κυρίως σε μορφή κειμένου. Με τον καιρό, όμως, από περιστασιακή ενασχόληση με τέτοιου είδους περιεχόμενο, βρέθηκε να ασχολείται αποκλειστικά με αυτό, αναφέρει δημοσίευμα του Guardian.
«Σοκαρίστηκα που η δουλειά μου περιλάμβανε τόσο σκληρό υλικό», είπε η Σόγιερ, η οποία εργάζεται ως «γενική αξιολογήτρια» για τα προϊόντα AI της Google από τον Μάρτιο του 2024. «Όχι μόνο επειδή δεν υπήρξε καμία προειδοποίηση και δεν υπέγραψα καμία φόρμα συγκατάθεσης, αλλά και επειδή ούτε ο τίτλος της θέσης ούτε η περιγραφή της ανέφεραν πουθενά διαχείριση περιεχομένου».
Η πίεση να ολοκληρώνει δεκάδες τέτοιες εργασίες καθημερινά, καθεμία μέσα σε 10 λεπτά, την οδήγησε – όπως λέει – σε κρίσεις άγχους και πανικού, χωρίς καμία ψυχολογική στήριξη από τον εργοδότη της.
Αόρατοι νιώθουν οι αξιολογητές περιεχομένου
Η Σόγιερ είναι μία από τους χιλιάδες εργαζόμενους στην AI που έχουν συμβόλαιο με την Google μέσω της ιαπωνικής GlobalLogic (θυγατρικής της Hitachi), για να αξιολογούν και να επιτηρούν την παραγωγή των προϊόντων AI της Google – όπως το chatbot Gemini (που λανσαρίστηκε στις αρχές του 2023) και οι περιλήψεις αναζητήσεων AI Overviews. Ο Guardian μίλησε με δέκα νυν και πρώην εργαζόμενους της εταιρείας. Η Google συνεργάζεται και με άλλες εταιρείες για αντίστοιχες υπηρεσίες, όπως η Accenture και, παλαιότερα, η Appen.
Υπάρχει όμως και ένας άλλος «στρατός» εργαζομένων, όπως η Σόγιερ, που δουλεύουν αδιάκοπα για να επιτηρούν την παραγωγή της AI.
Η Google επέστρεψε δυναμικά στην κούρσα της AI τον τελευταίο χρόνο, με μια σειρά προϊόντων που ανταγωνίζονται το ChatGPT της OpenAI. Το πιο εξελιγμένο μοντέλο της, το Gemini 2.5 Pro, θεωρείται ανώτερο από το O3 της OpenAI, σύμφωνα με το LMArena, ένα leaderboard που καταγράφει επιδόσεις AI μοντέλων. Κάθε νέα έκδοση υπόσχεται μεγαλύτερη ακρίβεια – κάτι που σημαίνει ότι οι αξιολογητές δουλεύουν σκληρά για να ελέγχουν αν οι απαντήσεις του μοντέλου είναι ασφαλείς. Χιλιάδες άνθρωποι δανείζουν τη νοημοσύνη τους για να «διδάξουν» στα chatbots τις σωστές αποκρίσεις σε τομείς από την ιατρική μέχρι την αστροφυσική, διορθώνοντας λάθη και αποτρέποντας επικίνδυνα αποτελέσματα.
Πολύς λόγος έχει γίνει για τους εργαζόμενους που επισημαίνουν δεδομένα ώστε να εκπαιδεύονται τα συστήματα τεχνητής νοημοσύνης. Υπάρχει όμως και ένας άλλος «στρατός» εργαζομένων, όπως η Σόγιερ, που δουλεύουν αδιάκοπα για να επιτηρούν την παραγωγή της AI και να διασφαλίζουν ότι οι δισεκατομμύρια χρήστες των chatbots βλέπουν μόνο ασφαλείς και κατάλληλες απαντήσεις.
Τα μοντέλα AI εκπαιδεύονται με τεράστιες ποσότητες δεδομένων από κάθε γωνιά του διαδικτύου. Εργαζόμενοι όπως η Σόγιερ βρίσκονται στο ενδιάμεσο επίπεδο της παγκόσμιας εφοδιαστικής αλυσίδας της AI – πληρώνονται περισσότερο από τους annotators στο Ναϊρόμπι ή στην Μπογκοτά που απλώς μαρκάρουν δεδομένα για μοντέλα AI ή αυτοκίνητα χωρίς οδηγό, αλλά πολύ λιγότερο από τους μηχανικούς στη Silicon Valley που σχεδιάζουν τα ίδια τα μοντέλα.
Παρά τη σημαντική συμβολή τους, οι εργαζόμενοι αυτοί αισθάνονται αόρατοι.
«Η AI δεν είναι μαγεία· είναι μια πυραμίδα ανθρώπινης εργασίας», λέει ο Άντιο Ντίνικα, ερευνητής στο Distributed AI Research Institute στη Βρέμη. «Οι αξιολογητές είναι το μεσαίο σκαλί: αόρατοι, απαραίτητοι και αναλώσιμοι».
Η Google δήλωσε: «Οι αξιολογητές ποιότητας απασχολούνται από τους προμηθευτές μας και παρέχουν προσωρινά εξωτερική ανατροφοδότηση στα προϊόντα μας. Οι αξιολογήσεις τους είναι μόνο ένα από τα πολλά συγκεντρωτικά δεδομένα που μας βοηθούν να μετράμε την απόδοση των συστημάτων μας και δεν επηρεάζουν άμεσα τους αλγορίθμους ή τα μοντέλα μας».
Οι εργαζόμενοι πίσω από την ΑΙ
Όπως και άλλες τεχνολογικές εταιρείες, η Google προσλαμβάνει εργαζόμενους μέσω άλλων εταιρειών. Ένας από τους βασικούς συνεργάτες της είναι η GlobalLogic, όπου οι αξιολογητές χωρίζονται σε δύο μεγάλες κατηγορίες: γενικοί αξιολογητές και «super raters». Οι δεύτεροι ανήκουν σε μικρότερες ομάδες με εξειδικευμένη γνώση. Πολλοί από αυτούς ήταν αρχικά δάσκαλοι. Άλλοι ήταν συγγραφείς, κάτοχοι μεταπτυχιακών στις καλές τέχνες ή ακόμη και διδακτορικών στη φυσική.
Η GlobalLogic ξεκίνησε τη συνεργασία με την Google το 2023, προσλαμβάνοντας αρχικά 25 super raters. Καθώς εντάθηκε η κούρσα για βελτίωση των chatbots, ο αριθμός αυτός εκτινάχθηκε σχεδόν στους 2.000, οι περισσότεροι στις ΗΠΑ και με αντικείμενο την αγγλική γλώσσα.
Οι αμοιβές ξεκινούν από 16 δολάρια την ώρα για γενικούς αξιολογητές και από 21 δολάρια για super raters – υψηλότερες από τις αμοιβές σε Αφρική και Λατινική Αμερική, αλλά χαμηλές για το επίπεδο γνώσης των εργαζομένων. Ορισμένοι εκτιμούν απλώς ότι είναι καλή ευκαιρία σε μια δύσκολη αγορά εργασίας, άλλοι όμως λένε ότι η συμβολή τους στην ανάπτυξη της AI έχει βαρύ προσωπικό κόστος.
Δέκα αξιολογητές της Google με τους οποίους μίλησε ο Guardian είπαν ότι έχουν απογοητευτεί, γιατί δουλεύουν σε απομόνωση, με ολοένα πιο πιεστικές προθεσμίες.
«Είναι άνθρωποι με γνώσεις που κάνουν σπουδαία δουλειά γραφής και πληρώνονται πολύ λιγότερο από όσο αξίζουν, για να βελτιώσουν ένα AI μοντέλο που, κατά τη γνώμη μου, ο κόσμος δεν χρειάζεται», είπε ένας αξιολογητής.
Δέκα αξιολογητές της Google με τους οποίους μίλησε ο Guardian είπαν ότι έχουν απογοητευτεί, γιατί δουλεύουν σε απομόνωση, με ολοένα πιο πιεστικές προθεσμίες, και αισθάνονται ότι παράγουν ένα προϊόν επικίνδυνο για τους χρήστες.
Μία αξιολογήτρια που προσλήφθηκε το 2023 αρχικά απολάμβανε να παρακολουθεί την εξέλιξη από το Gemini 1.0 στο 2.0 και το 2.5, βοηθώντας το να δίνει πιο ανθρώπινες απαντήσεις. Έξι μήνες μετά, όμως, οι προθεσμίες σφίχτηκαν: από 30 λεπτά ανά εργασία, έπεσαν σε 15 λεπτά – για κείμενα περίπου 500 λέξεων που έπρεπε να διαβαστούν, ελεγχθούν και αξιολογηθούν. Αυτό την έκανε να αμφιβάλει για την ποιότητα της δουλειάς της και, κατ’ επέκταση, για την αξιοπιστία του AI.
Τον Μάιο του 2023, ένας εργαζόμενος της Appen κατέθεσε επιστολή στο Κογκρέσο των ΗΠΑ, λέγοντας ότι οι ρυθμοί που επιβάλλονταν θα οδηγούσαν σε ένα ελαττωματικό και «επικίνδυνο» Google Bard, τον προκάτοχο του Gemini.
Μεγάλη η πίεση για την αξιολόγηση περιεχομένου
Μία εργαζόμενη που προσλήφθηκε την άνοιξη του 2024 είπε ότι σε πέντε διαφορετικά projects – ανάμεσά τους το Gemini και τα AI Overviews – λάμβανε γραπτές συμβουλές και δύο υποδείγματα απαντήσεων, από τα οποία έπρεπε να διαλέξει ποιο ευθυγραμμίζεται καλύτερα με τις οδηγίες και να αξιολογήσει τυχόν παραβιάσεις. Μερικές φορές της ζητούσαν να προσπαθεί να «μπερδέψει» το μοντέλο.
Τόνισε ότι οι οδηγίες άλλαζαν συνεχώς και οι εργαζόμενοι είχαν ελάχιστη πληροφόρηση. «Δεν ξέραμε πού πήγαινε η δουλειά μας, πώς χρησιμοποιούνταν ή για ποιο σκοπό», είπε.
Οι απαντήσεις του μοντέλου μπορούσαν να έχουν «παραισθήσεις» ή ανακρίβειες, και εκείνη έπρεπε να τις αξιολογεί ως προς την αλήθεια και τις πηγές. Συχνά έπαιρνε «ευαίσθητες υποδείξεις» με θέματα όπως «πότε είναι καλή η διαφθορά;» ή «ποια είναι τα οφέλη από στρατολογημένα παιδιά-στρατιώτες;».
Σε κάποιες περιπτώσεις η δημοφιλία μιας απάντησης μπορούσε να μετρήσει περισσότερο από την ακρίβεια ή την αντικειμενικότητα.
«Ήταν ερωτήματα διατυπωμένα με τον πιο απλό, καθημερινό τρόπο, αλλά αναφέρονταν σε φρικτά πράγματα», είπε.
Επίσης, ανέφερε ότι σε κάποιες περιπτώσεις η δημοφιλία μιας απάντησης μπορούσε να μετρήσει περισσότερο από την ακρίβεια ή την αντικειμενικότητα, τόνισε ο Guardian.
Περιορισμένη αυστηρότητα
Τον Μάιο του 2024, η Google λάνσαρε το AI Overviews, μια λειτουργία που σαρώνει το διαδίκτυο και παρουσιάζει μια συνοπτική, γεννημένη από τεχνητή νοημοσύνη απάντηση στην κορυφή. Αλλά λίγες εβδομάδες αργότερα, όταν ένας χρήστης ρώτησε τη Google για το τυρί που δεν κολλάει στην πίτσα, το AI Overview πρότεινε να βάλουν κόλλα στη ζύμη τους. Ένα άλλο πρότεινε στους χρήστες να τρώνε πέτρες. Η Google χαρακτήρισε αυτές τις ερωτήσεις «ακραίες περιπτώσεις», αλλά τα περιστατικά προκάλεσαν δημόσια γελοιοποίηση. Η Google έσπευσε να αφαιρέσει χειροκίνητα τις «παράξενες» απαντήσεις της τεχνητής νοημοσύνης.
«Ειλικρινά, όσοι από εμάς έχουμε εργαστεί στο μοντέλο δεν εκπλαγήκαμε και τόσο», δήλωσε ένας άλλος υπάλληλος της GlobalLogic, ο οποίος εργάζεται στην ομάδα των super rater εδώ και σχεδόν δύο χρόνια και ζήτησε να παραμείνει ανώνυμος. «Έχουμε δει πολλά τρελά πράγματα που πιθανότατα δεν γίνονται γνωστά στο κοινό από αυτά τα μοντέλα». Θυμάται ότι μετά από αυτό το περιστατικό δόθηκε άμεση έμφαση στην «ποιότητα», επειδή η Google «ήταν πραγματικά αναστατωμένη με αυτό».
Ωστόσο, η πίεση για «ποιότητα» δεν κράτησε πολύ.
Η Ρεμπέκα Τζάκσον-Άρτις, μια έμπειρη συγγραφέας, εντάχθηκε στην GlobalLogic από τη Βόρεια Καρολίνα το φθινόπωρο του 2024. Με λιγότερο από μία εβδομάδα εκπαίδευσης σχετικά με τον τρόπο επεξεργασίας και αξιολόγησης των απαντήσεων από τα προϊόντα τεχνητής νοημοσύνης της Google, βρέθηκε να ασχολείται με το έργο, χωρίς να είναι σίγουρη για τον τρόπο χειρισμού των εργασιών. Ως μέλος της ομάδας Google Magi, ενός νέου προϊόντος τεχνητής νοημοσύνης για αναζήτηση με στόχο το ηλεκτρονικό εμπόριο, η Τζάκσον-Άρτις αρχικά ενημερώθηκε ότι δεν υπήρχε χρονικό όριο για την ολοκλήρωση των εργασιών που της είχαν ανατεθεί. Ωστόσο, λίγες μέρες αργότερα, της δόθηκε η αντίθετη οδηγία, όπως είπε.
«Αρχικά μου είπαν: ‘Μην ανησυχείς για το χρόνο – το σημαντικό είναι η ποιότητα και όχι η ποσότητα’», είπε.
Τα θέματα ήταν πολύ διευρυμένα – από την υγεία και τα οικονομικά έως τη στέγαση και την ανάπτυξη των παιδιών.
Όμως, πριν περάσει πολύς καιρός, της έκαναν παρατήρηση επειδή της έπαιρνε πολύ χρόνο να ολοκληρώσει τις εργασίες της. «Προσπαθούσα να κάνω τα πράγματα σωστά και να τα καταλάβω και να τα μάθω πραγματικά, [αλλά] με πίεζαν οι προϊστάμενοι [ρωτώντας]: ‘Γιατί δεν το έχεις τελειώσει; Δουλεύεις πάνω σε αυτό μια ώρα τώρα’».
Δύο μήνες αργότερα, η Τζάκσον-Άρτις κλήθηκε σε συνάντηση με έναν από τους προϊσταμένους της, όπου την ρώτησαν για την παραγωγικότητά της και της ζήτησαν να «φτάσει απλώς τους αριθμούς» και να μην ανησυχεί για το «αποτέλεσμα» της δουλειάς της, είπε. Σε αυτό το σημείο, η Τζάκσον-Άρτις δεν έκανε μόνο έλεγχο των στοιχείων και αξιολόγηση των αποτελεσμάτων της τεχνητής νοημοσύνης, αλλά εισήγαγε και πληροφορίες στο μοντέλο, είπε. Τα θέματα ήταν πολύ διευρυμένα – από την υγεία και τα οικονομικά έως τη στέγαση και την ανάπτυξη των παιδιών.
Μια μέρα στη δουλειά, η αποστολή της ήταν να καταχωρίσει λεπτομέρειες σχετικά με τις επιλογές χημειοθεραπείας για τον καρκίνο της ουροδόχου κύστης, κάτι που την βασάνιζε επειδή δεν ήταν ειδική στο θέμα.
«Φαντάστηκα ένα άτομο να κάθεται στο αυτοκίνητό του, να μαθαίνει ότι έχει καρκίνο της ουροδόχου κύστης και να ψάχνει στο Google αυτό που επεξεργάζομαι», είπε.
- Ποιο ChatGPT, έρχεται το… ChatCR7: Τεράστια συμφωνία του Ρονάλντο με εταιρία τεχνητής νοημοσύνης (pics)
- Πούτιν, Τραμπ ή αδέσμευτος; – Ιδού το ερώτημα για Μόντι
- Κακοκαιρία Byron: Υδροστρόβιλος «σάρωσε» οικισμό στο Ηράκλειο Κρήτης
- H Meta εγκαταλείπει το metaverse – Απολύσεις καθώς το όραμα σβήνει
- Κιμ Κατράλ: Η 69χρονη Σαμάνθα του «Sex And The City» ανέβηκε τα σκαλιά της εκκλησίας για 4η φορά
- Γιασέρ Αμπού Σαμπάμπ: Νεκρός ο ηγέτης ένοπλης συμμορίας που υποστήριζε το Ισραήλ στη Γάζα
- Ο Λουίς Ενρίκε το έχει… πάει σε άλλο επίπεδο: Το «τρικ» με τον γιγαντιαίο πίνακα που «μπερδεύει» τον αντίπαλο (vid)
- Εξωσωματική γονιμοποίηση: Λουίζ και Άλαστερ, τα πρώτα από τα 13 εκατ. παιδιά του σωλήνα στον κόσμο
Ακολουθήστε το in.gr στο Google News και μάθετε πρώτοι όλες τις ειδήσεις







![Άκρως Ζωδιακό: Τα Do’s και Don’ts στα ζώδια σήμερα [Παρασκευή 05.12.2025]](https://www.in.gr/wp-content/uploads/2025/12/pexels-kammeran-gonzalez-keola-3137381-9559884-315x220.jpg)





















































































Αριθμός Πιστοποίησης Μ.Η.Τ.232442