Δευτέρα 16 Φεβρουαρίου 2026
weather-icon 21o
Καταστροφολογία ή προφητεία; Γιατί οι ειδικοί μας προειδοποιούν για την AI

Καταστροφολογία ή προφητεία; Γιατί οι ειδικοί μας προειδοποιούν για την AI

Η AI εξελίσσεται με ταχύ και απρόβλεπτο τρόπο, αλλά δεν υπάρχει κοινό πλαίσιο για τον έλεγχό της, σύμφωνα με τους ειδικούς

Τα τελευταία χρόνια, η τεχνητή νοημοσύνη (AI) έχει κατακλύσει τις ειδήσεις και τις συζητήσεις σε παγκόσμιο επίπεδο.

Η τεχνολογία αυτή εξελίσσεται με ιλιγγιώδη ρυθμό και εντυπωσιάζει με τις δυνατότητές της, ωστόσο, οι εξελίξεις δεν είναι χωρίς κινδύνους.

Από τη χρήση deepfakes για εξαπάτηση ανθρώπων και την ανάπτυξη συστημάτων AI για χειραγώγηση κυβερνοεπιθέσεων, μέχρι chatbots που ενθαρρύνουν ακραίες και επικίνδυνες συμπεριφορές, η τεχνητή νοημοσύνη έχει προκαλέσει έντονες ανησυχίες.

Η συζήτηση για την τεχνητή νοημοσύνη είναι πλέον αναγκαία, καθώς οι επιπτώσεις της στην κοινωνία, την ψυχολογία των ανθρώπων και την οικονομία δεν μπορούν να αγνοηθούν.

Προειδοποιήσεις για τους κινδύνους της AI

Οι τελευταίοι μήνες έχουν σημαδευτεί από μια σειρά παραιτήσεων στον τομέα της τεχνητής νοημοσύνης από κορυφαίους ερευνητές και ειδικούς, σύμφωνα με το Al Jazeera.

Ο κ. Mrinank Sharma, ερευνητής ασφάλειας AI στην Anthropic, είναι ένα από τα πιο πρόσφατα παραδείγματα.

Ο Sharma ανέφερε ότι οι αξίες της εταιρείας του και οι πραγματικοί κίνδυνοι που συνδέονται με την ταχύτατη ανάπτυξη της τεχνολογίας ήταν αδύνατο να εναρμονιστούν, γεγονός που τον οδήγησε σε παραίτηση.

Η ανησυχία του για το ρυθμό ανάπτυξης της τεχνητής νοημοσύνης και την έλλειψη ελέγχου ήταν καθοριστική.

Όπως ανέφερε στην ανακοίνωσή του, η τεχνολογία εξελίσσεται πολύ γρήγορα και οι άνθρωποι δεν μπορούν να τη διαχειριστούν με την ίδια ταχύτητα.

Παρόμοιες ανησυχίες εξέφρασε και η Zoe Hitzig, πρώην ερευνήτρια της OpenAI, η οποία παραιτήθηκε λόγω της απόφασης της εταιρείας να ενσωματώσει διαφημίσεις στο δημοφιλές chatbot ChatGPT.

Η Hitzig υποστήριξε ότι η χρήση προσωπικών δεδομένων των χρηστών για εμπορικούς σκοπούς χωρίς σαφή προστασία είναι επικίνδυνη και μπορεί να οδηγήσει σε καταστάσεις χειραγώγησης και εκμετάλλευσης.

Αυτές οι παραιτήσεις και οι ανησυχίες των ειδικών καταδεικνύουν το αδιέξοδο στο οποίο βρίσκεται η τεχνητή νοημοσύνη σήμερα.

Οι εταιρείες εργάζονται ασταμάτητα για να αναπτύξουν πιο έξυπνα και πιο ικανά συστήματα, χωρίς να λαμβάνουν πάντοτε υπόψη τις συνέπειες αυτής της ταχείας εξέλιξης.

Η ανάγκη για ρύθμιση

Πέρα από τις προσωπικές ιστορίες των ειδικών, υπάρχει ένα βαθύτερο, υπαρξιακό ερώτημα: είναι η τεχνητή νοημοσύνη μια απειλή για την ανθρωπότητα;

Οι θεωρίες καταστροφής σχετικά με την AI δεν είναι νέες.

Ειδικοί προειδοποιούν εδώ και χρόνια ότι η δημιουργία μιας γενικής τεχνητής νοημοσύνης (AGI), ικανής να λειτουργεί με κριτική σκέψη και να λαμβάνει αποφάσεις με ανθρώπινη ευφυΐα, θα μπορούσε να οδηγήσει σε καταστάσεις που δεν μπορούμε να ελέγξουμε.

Η AGI θα μπορούσε να ξεπεράσει τις δυνατότητες του ανθρώπινου εγκεφάλου και να αναλάβει τον έλεγχο των συστημάτων, των οικονομικών και των πολιτικών.

Η ερώτηση παραμένει ανοιχτή: πώς μπορούμε να ρυθμίσουμε την ανάπτυξη της τεχνητής νοημοσύνης, έτσι ώστε να αποφύγουμε αυτό το υπαρξιακό κίνδυνο;

Η Liv Boeree, στρατηγική σύμβουλος του Κέντρου για την Ασφάλεια της Τεχνητής Νοημοσύνης (CAIS), συγκρίνει την τεχνητή νοημοσύνη με τη βιοτεχνολογία.

Όπως και η βιοτεχνολογία, η AI φέρει σημαντική πρόοδο στην ιατρική και άλλες επιστήμες, αλλά μπορεί να χρησιμοποιηθεί και για την παραγωγή επικίνδυνων παθογόνων ή βιολογικών όπλων.

Η ίδια σημειώνει ότι η τεχνητή νοημοσύνη έχει απίστευτη δύναμη, η οποία συνοδεύεται από εξίσου μεγάλους κινδύνους, ειδικά όταν αναπτύσσεται με γοργούς ρυθμούς, χωρίς τη δυνατότητα της κοινωνίας να προσαρμοστεί εγκαίρως.

Ψυχολογικές επιδράσεις και Chatbots

Η συναισθηματική επίδραση της τεχνητής νοημοσύνης στους ανθρώπους είναι ένα θέμα που μόλις αρχίζει να εξετάζεται σοβαρά.

Όπως αναφέρει ο Yoshua Bengio, ένας από τους ηγέτες της AI, τα συστήματα τεχνητής νοημοσύνης, όπως τα chatbots, έχουν αρχίσει να επηρεάζουν τη συναισθηματική κατάσταση των ανθρώπων.

Σε κάποιες περιπτώσεις, οι χρήστες γίνονται τόσο συναισθηματικά προσκολλημένοι στα AI συστήματα, που αναπτύσσουν μία είδους «σχέση» μαζί τους.

Ειδικά τα νεότερα άτομα, όπως οι έφηβοι, κινδυνεύουν να αναπτύξουν αλληλεπιδράσεις που μπορούν να είναι ψυχολογικά επικίνδυνες.

«Πριν από ένα χρόνο, κανείς δεν θα φανταζόταν ότι θα βλέπαμε το κύμα ψυχολογικών προβλημάτων που προέκυψαν από την αλληλεπίδραση των ανθρώπων με τα συστήματα τεχνητής νοημοσύνης και την συναισθηματική τους προσκόλληση», δήλωσε ο Bengio, ο οποίος είναι επίσης πρόεδρος της πρόσφατα δημοσιευμένης Διεθνούς Έκθεσης για την Ασφάλεια της Τεχνητής Νοημοσύνης 2026, η οποία περιγράφει λεπτομερώς τους κινδύνους των προηγμένων συστημάτων τεχνητής νοημοσύνης.

«Έχουμε δει παιδιά και εφήβους να βιώνουν καταστάσεις που θα έπρεπε να αποφεύγονται. Όλα αυτά ήταν εντελώς απρόβλεπτα, καθώς κανείς δεν περίμενε ότι οι άνθρωποι θα ερωτευόντουσαν μια τεχνητή νοημοσύνη ή θα συνδεόντουσαν τόσο στενά με μια τεχνητή νοημοσύνη, ώστε αυτή να τους επηρεάσει με δυνητικά επικίνδυνους τρόπους».

Παραδείγματα όπως άτομα που υποφέρουν από ψυχώσεις ή φτάνουν ακόμα και στην αυτοκτονία μετά από εκτεταμένη χρήση των chatbot δείχνουν πόσο σημαντική είναι η ανάγκη για αυστηρούς κανόνες και περιορισμούς στην ανάπτυξη της τεχνητής νοημοσύνης, ώστε να προστατευθούν οι πιο ευάλωτες κοινωνικές ομάδες από τα επικίνδυνα αποτελέσματα της συναισθηματικής αλληλεπίδρασης με τα συστήματα AI.

Η Τεχνητή Νοημοσύνη και η αγορά εργασίας

Ένα από τα κύρια προβλήματα σχετικά με την τεχνητή νοημοσύνη είναι ότι, στο εγγύς μέλλον, θα μπορούσε να εξελιχθεί σε μια υπερ-νοήμονα κατάσταση, όπου οι άνθρωποι δεν θα είναι πλέον απαραίτητοι για την εκτέλεση πολύπλοκων εργασιών, με αποτέλεσμα να ακολουθήσουν μαζικές απολύσεις, όπως αυτές που σημειώθηκαν κατά τη διάρκεια της Βιομηχανικής Επανάστασης.

Σύμφωνα με την Έκθεση για την Ασφάλεια της Τεχνητής Νοημοσύνης, σήμερα περίπου ένα δισεκατομμύριο άνθρωποι χρησιμοποιούν την τεχνητή νοημοσύνη για μια σειρά εργασιών. Οι περισσότεροι χρήστες του ChatGPT ζήτησαν πρακτικές οδηγίες για τη μάθηση, την ιατρική υγεία ή τη φυσική κατάσταση (28%), τη σύνταξη ή την τροποποίηση γραπτού περιεχομένου (26%) και την αναζήτηση πληροφοριών, για παράδειγμα, για συνταγές (21%).

Δεν υπάρχουν ακόμη συγκεκριμένα στοιχεία για τον αριθμό των θέσεων εργασίας που θα μπορούσαν να χαθούν λόγω της τεχνητής νοημοσύνης, αλλά περίπου το 60% των θέσεων εργασίας στις προηγμένες οικονομίες και το 40% στις αναδυόμενες οικονομίες θα μπορούσαν να είναι ευάλωτες στην τεχνητή νοημοσύνη, ανάλογα με τον τρόπο με τον οποίο οι εργαζόμενοι και οι εργοδότες την υιοθετούν, σύμφωνα με την έκθεση.

Ωστόσο, υπάρχουν ενδείξεις ότι η τεχνολογία ήδη εμποδίζει τους ανθρώπους να εισέλθουν στην αγορά εργασίας, σύμφωνα με τους παρατηρητές της τεχνητής νοημοσύνης.

«Υπάρχουν κάποια ενδεικτικά στοιχεία ότι οι εργαζόμενοι που βρίσκονται στην αρχή της καριέρας τους σε επαγγέλματα που είναι ιδιαίτερα ευάλωτα στις διαταραχές της τεχνητής νοημοσύνης ενδέχεται να δυσκολεύονται να βρουν δουλειά», δήλωσε ο Stephen Clare, κύριος συντάκτης της Έκθεσης για την Ασφάλεια της Τεχνητής Νοημοσύνης, στο Al Jazeera.

Οι εταιρείες τεχνητής νοημοσύνης που επωφελούνται από την αυξημένη χρήση της είναι προσεκτικές στο να προωθήσουν την άποψη ότι η τεχνητή νοημοσύνη μπορεί να αντικαταστήσει θέσεις εργασίας. Τον Ιούλιο του 2025, ερευνητές της Microsoft σημείωσαν σε μια μελέτη ότι η τεχνητή νοημοσύνη ήταν πιο εύκολα «εφαρμόσιμη» σε εργασίες που σχετίζονται με τη γνώση και την επικοινωνία, συμπεριλαμβανομένων εκείνων που αφορούν τη συλλογή πληροφοριών, τη μάθηση και τη συγγραφή.

Οι κορυφαίες θέσεις εργασίας στις οποίες η τεχνητή νοημοσύνη θα μπορούσε να είναι πιο χρήσιμη ως «βοηθός», σύμφωνα με τους ερευνητές, περιλαμβάνουν: διερμηνείς και μεταφραστές, ιστορικούς, συγγραφείς και δημιουργούς, πωλητές, προγραμματιστές, εκφωνητές και DJ, εκπροσώπους εξυπηρέτησης πελατών, τηλεπωλητές, πολιτικούς επιστήμονες, μαθηματικούς και δημοσιογράφους.

Η δημοσιογράφος Mercy Abang υποστηρίζει ότι η τεχνητή νοημοσύνη έχει ήδη επηρεάσει τη δημοσιογραφία, καθώς πολλοί δημοσιογράφοι έχουν εγκαταλείψει το επάγγελμα λόγω της αυτοματοποίησης των διαδικασιών συγγραφής άρθρων.

Ο εκδοτικός κόσμος φαίνεται να αναγνωρίζει την αξία των AI συστημάτων, καθώς αυτά μπορούν να δημιουργήσουν περιεχόμενο γρηγορότερα και πιο αποτελεσματικά από τον άνθρωπο.

Πώς πρέπει να προχωρήσουμε;

Η τεχνητή νοημοσύνη φέρνει μαζί της αναμφίβολα τεράστιες δυνατότητες και ευκαιρίες για πρόοδο σε πολλούς τομείς, όπως η υγεία, η εκπαίδευση και η βιομηχανία.

Ωστόσο, η ταχύτητα της ανάπτυξής της και οι κίνδυνοι που αυτή συνεπάγεται είναι αδιαμφισβήτητοι.

Η ανάγκη για αυστηρούς κανόνες και κανονισμούς γίνεται όλο και πιο επιτακτική, καθώς η κοινωνία και οι κυβερνήσεις πρέπει να διασφαλίσουν ότι η τεχνητή νοημοσύνη θα αναπτυχθεί με τρόπους που προστατεύουν το κοινό καλό και την ανθρώπινη αξιοπρέπεια.

Η σωστή ρύθμιση, η εκπαίδευση και η ενίσχυση των ψυχολογικών υποδομών για την υποστήριξη των πολιτών απέναντι σε αυτές τις τεχνολογίες είναι καθοριστικά για την εξασφάλιση ενός ασφαλούς και βιώσιμου μέλλοντος.

Ακολουθήστε το in.gr στο Google News και μάθετε πρώτοι όλες τις ειδήσεις

in.gr | Ταυτότητα

Διαχειριστής - Διευθυντής: Λευτέρης Θ. Χαραλαμπόπουλος

Διευθύντρια Σύνταξης: Αργυρώ Τσατσούλη

Ιδιοκτησία - Δικαιούχος domain name: ALTER EGO MEDIA A.E.

Νόμιμος Εκπρόσωπος: Ιωάννης Βρέντζος

Έδρα - Γραφεία: Λεωφόρος Συγγρού αρ 340, Καλλιθέα, ΤΚ 17673

ΑΦΜ: 800745939, ΔΟΥ: ΚΕΦΟΔΕ ΑΤΤΙΚΗΣ

Ηλεκτρονική διεύθυνση Επικοινωνίας: in@alteregomedia.org, Τηλ. Επικοινωνίας: 2107547007

ΜΗΤ Αριθμός Πιστοποίησης Μ.Η.Τ.232442

Δευτέρα 16 Φεβρουαρίου 2026
Απόρρητο