Η Ευρωπαϊκή Επιτροπή παρουσίασε την Τετάρτη πρόταση για την επιβολή κανόνων στις εφαρμογές τεχνητής νοημοσύνης (ΑΙ), οι οποίοι μεταξύ άλλων θα απαγορεύουν τη μαζική παρακολούθηση από κάμερες αν δεν συντρέχει λόγος δημόσιας ασφάλειας.

Η πρόταση επιβάλει επίσης περιορισμούς για εφαρμογές «υψηλού ρίσκου», όπως οι αλγόριθμοι που αποφασίζουν για προσλήψεις εργαζομένων, χορήγηση δανείων ή εγγραφές φοιτητών σε εκπαιδευτικά ιδρύματα. Σε αυτές τις περιπτώσεις θα πρέπει να αποδεικνύεται η αξιοπιστία των αλγορίθμων και να υπάρχει «κατάλληλη επίβλεψη από ανθρώπους».

Ορισμένες εφαρμογές απαγορεύονται πλήρως ως απαράδεκτες, όπως για παράδειγμα η «κοινωνική βαθμολόγηση» (social scoring) από συστήματα που αξιολογούν τους πολίτες βάσει της συμπεριφοράς και των φυσικών χαρακτηριστικών τους.

Διαβάστε επίσης:

Σύμφωνα με έγγραφο της Κομισιόν που είχε διαρρεύσει την περασμένη εβδομάδα, θα πρέπει επίσης να απαγορευτούν τα συστήματα ΑΙ που «έχουν σχεδιαστεί για την χειραγώγηση της ανθρώπινης συμπεριφοράς και της διαμόρφωσης γνώμης» ή «αξιοποιούν πληροφορίες ή προβλέψεις για πρόσωπα ή ομάδες προσώπων με στόχο την εκμετάλλευση των αδυναμιών τους.

Ο νέος κανονισμός θα πρέπει τώρα να συζητηθεί στο Ευρωπαϊκό Κοινοβούλιο και μεταξύ των χωρών-μελών, μια διαδικασία που θα μπορούσε να διαρκέσει χρόνια.

Για τους παραβάτες των προτεινόμενων κανόνων προβλέπεται πρόστιμο ίσο με το 6% του παγκόσμιου τζίρου τους με όριο το ποσό των 30 εκατομμυρίων ευρώ.

«Θέμα εμπιστοσύνης»

«Στην τεχνητή νοημοσύνη, η εμπιστοσύνη είναι προαπαιτούμενο, όχι κάτι που καλό θα ήταν να έχουμε. Με αυτούς τους κανόνες που αποτελούν ορόσημο, η ΕΕ πρωτοστατεί προκειμένου να διαμορφωθούν νέες παγκόσμιες νόρμες» δήλωσε η Μάργκρετ Βεστάγκερ, αντιπρόεδρος της Επιτροπής αρμόδια για θέματα τεχνολογίας.

Στη διάρκεια ενημέρωσης των δημοσιογράφων, αναφέρει το Associated Press, η Βεστάγκερ ξεκαθάρισε πως «στην κοινωνία μας δεν υπάρχει περιθώριο για μαζική παρακολούθηση». Αυτό σημαίνει ότι απαγορεύεται η χρήση καμερών για αναγνώριση προσώπων σε δημόσιους χώρους, εκτός αν αυτό απαιτείται για την επιβολή του νόμου, για παράδειγμα στην αποτροπή τρομοκρατικών επιθέσεων ή τον εντοπισμό αγνοούμενων παιδιών.

Ακόμα, τα chatbot που ενημερώνουν τους καταναλωτές για προϊόντα ή υπηρεσίες θα πρέπει να τους γνωστοποιούν ότι δεν είναι άνθρωποι, ενώ οι εικόνες και τα βίντεο deepfake θα πρέπει να φέρουν ειδική σήμανση όταν χρησιμοποιούνται από επιχειρήσεις.

Ενστάσεις

Αναλυτές σχολίασαν σε διεθνή μέσα ότι ορισμένοι από τους προτεινόμενους κανόνες είναι ασαφείς και ανεπαρκείς.

«Το νομοσχέδιο δεν απαγορεύει το πλήρες εύρος των απαράδεκτων εφαρμογών της ΑΙ, και ειδικά όλες τις μορφές βιομετρικής μαζικής παρακολούθησης» δήλωσε στο Reuters η Σάρα Τσάντερ της οργάνωσης European Digital Rights.

«Αυτό αφήνει περιθώριο για τεχνολογίες παρακολούθησης και διάκρισης που χρησιμοποιούνται από κυβερνήσεις και εταιρείες» υποστήριξε.

Αντιρρήσεις εξέφρασε επίσης ο ευρωβουλευτής των Πρασίνων Πάτρικ Μπρέγιερ, ο οποίος χαρακτήρισε την πρόταση «προπέτασμα καπνού».

Γράψτε το σχόλιό σας

Ακολουθήστε το στο Google News και μάθετε πρώτοι όλες τις ειδήσεις
Δείτε όλες τις τελευταίες Ειδήσεις από την Ελλάδα και τον Κόσμο, στο