Θα μπορούσε ένα σύστημα «τεχνητής νοημοσύνης» να δικάσει; Αυτό είναι το ερώτημα που εγείρεται μετά τη διαπίστωση επιστημόνων που ανέπτυξαν ένα σύστημα το οποίο προέβλεψε σωστά, σε βαθμό 79%, την κρίση των δικαστών σε 584 υποθέσεις που τέθηκαν ενώπιον του Ευρωπαϊκού Δικαστηρίου Ανθρωπίνων Δικαιωμάτων.

Για την «εκπαίδευση» των μηχανών και του συστήματος ΑΙ, συνεργάστηκαν ερευνητές από τρία πανεπιστήμια – University College London, πανεπιστήμια σε Σέφιλντ και Πενσυλβάνια.

Το πρώτο σχόλιο, από τον Δρ. Νικόλαο Αλετρά επικεφαλής της μελέτης στο UCL στο BBC: «Η τεχνητή νοημοσύνη δεν θα υποκαταστήσει δικαστές και δικηγόρους -θα τους ήταν όμως χρήσιμο ένα σύστημα που είναι σε θέση να αναγνωρίσει τάχιστα το μοτίβο σε υποθέσεις που οδηγούν σε γνωστά αποτελέσματα». Θα ήταν επίσης, ένα πολύτιμο εργαλείο που θα μπορούσε να επισημάνει τις υποθέσεις που κρίνεται πολύ πιθανό να αποτελούν παραβίαση ανθρωπίνων δικαιωμάτων -αυτό όμως, θα το κρίνουν οι πραγματικοί δικαστές.

Το σύστημα που αναπτύχθηκε μελέτησε ειδικότερα υποθέσεις στις οποίες κρίθηκε ότι υπήρχε ή όχι παραβίαση τριών άρθρων στην Ευρωπαϊκή Σύμβαση Δικαιωμάτων του Ανθρώπου. Συγκεκριμένα, εξετάστηκε εάν παραβιάζεται το Άρθρο 3 για την απαγόρευση των βασανιστηρίων, το Άρθρο 6 για το δικαίωμα στη χρηστή απονομή δικαιοσύνης καθώς και το άρθρο 8 για το δικαίωμα σεβασμού της ιδιωτικής και οικογενειακής ζωής.

Με ικανά στοιχεία, οι υποθέσεις που αφορούσαν στα τρία αυτά άρθρα αποτέλεσαν τη βάση για την εκπαίδευση των δικαστών-μηχανών, οι οποίες έκριναν εάν κάθε μια από αυτές συνιστούσε παραβίαση ή όχι της περίφημης Σύμβασης. Οι ερευνητές είχαν προηγουμένως μοιράσει το δείγμα από το οποίο εκπαιδεύτηκαν οι μηχανές, χρειάστηκε όμως να περιοριστούν σε δημοσιευμένα βουλεύματα και όχι στα αιτήματα που υποβάλλονται στο Δικαστήριο, όπως σημειώνει σε συνέντευξή του ένας ακόμα Έλληνας της ομάδας των ερευνητών, ο Δρ. Βασίλης Λάμπρος στο BBC.

Από την άλλη, φάνηκε ότι το σύστημα τεχνητής νοημοσύνης δεν μπορούσε να διακρίνει «τις λεπτές αποχρώσεις του νόμου» όταν οι πραγματικοί δικαστές είχαν αποφασίσει ναι και όχι σε δύο παρόμοιες -κατά το σύστημα ΑΙ- υποθέσεις.

Ένα τέτοιο σύστημα, με περαιτέρω εκπαίδευση και λαμβάνοντας υπόψη καταθέσεις μαρτύρων ή τις επισημάνσεις από τους δικηγόρους, θα μπορούσε να αυτοματοποιήσει ένα μέρος της διαδικασίας ή να βοηθήσει τους ανθρώπους να λάβουν αποφάσεις με βάση την πιθανότητα επιτυχίας της δίκης τους. Δεν μπορεί όμως να αποτελέσει σύμβουλο δικαστικών αποφάσεων, σύμφωνα με τον Ματ Τζόουνς, έναν από τους αναλυτές δεδομένων της εταιρείας Tessella. Κι αυτό καθώς, ένα σύστημα τεχνητής νοημοσύνης δεν λαμβάνει υπόψη του το ευρύτερο περιβάλλον πέραν όσων έχει μάθει και εκπαιδευτεί και η χρήση του στο δικαστήριο θα μπορούσε να αποδειχτεί ακόμα και επικίνδυνη, σημειώνει ο επιστήμονας data science.
{{{related}}}

tech.in.gr

Γράψτε το σχόλιό σας

Ακολουθήστε το στο Google News και μάθετε πρώτοι όλες τις ειδήσεις
Δείτε όλες τις τελευταίες Ειδήσεις από την Ελλάδα και τον Κόσμο, στο