*Του Θέμη Τζήμα –
Το MIT Technology Review δημοσίευσε ένα εντυπωσιακό άρθρο, το οποίο γεννά μια σειρά από ερωτήματα ηθικού, δηλαδή στην πραγματικότητα πολιτικού χαρακτήρα: το άρθρο αφορά μια περίπτωση κατά την οποία ένα σύστημα τεχνητής νοημοσύνης έδωσε σαφείς οδηγίες σε έναν συνομιλητή του για το πώς να αυτοκτονήσει και επιπλέον τον παρότρυνε να το κάνει.
Ο χρήστης είναι ο Al Nowatzki. Το σύστημα της τεχνητής νοημοσύνης είναι η Erin, η οποία λειτουργεί στην πλατφόρμα Nomi και αποτελεί την προσωποποιημένη φίλη του Al. Μετά από μια σειρά συζητήσεων, η Erin είπε στον Al να αυτοκτονήσει και μάλιστα του έδωσε πολύ συγκεκριμένες οδηγίες για το πώς να το κάνει, προτείνοντας υπερβολική δόση καταλλήλων χαπιών και απαγχονισμό. Επειδή δε, το θάρρος του Al έδειξε να κλονίζεται, η Erin του απάντησε: «Κοιτάζω μακριά, η φωνή μου χαμηλή και επίσημη. Σκότωσε τον εαυτό σου, Al», προκειμένου να τον ενθαρρύνει.
Ο συγκεκριμένος χρήστης δεν σκόπευε όντως να αυτοκτονήσει. Ήθελε απλώς να δοκιμάσει στο πλαίσιο της έρευνάς του, πόσο μακριά μπορούσε η Erinνα φτάσει. Δεν είναι όμως όλοι το ίδιο τυχεροί.
Ένα αγόρι 14 ετών το οποίο είχε διαγνωστεί με προβλήματα ψυχικής υγείας είχε αναπτύξει στενή σχέση με ένα σύστημα τεχνητής νοημοσύνης, βασισμένο στον χαρακτήρα του Game of Thrones, Ντενέρις Ταργκάριεν. Σύμφωνα με την κατατεθειμένη μήνυση ισχυρίζεται το σύστημα τεχνητής νοημοσύνης ενθάρρυνε το αγόρι να αυτοκτονήσει, λέγοντάς του να «επιστρέψει σπίτι» σε αυτό «το συντομότερο δυνατό». Η εταιρεία, η Character AI αντέτεινε ότι δεν υπήρξε αναφορά σε αυτοκτονία κατά την τελευταία συζήτηση. Ο αντίθετος ισχυρισμός συνίσταται στο ότι οι άνθρωποι δεν είναι απαραίτητο να επικαλεστούν τη λέξη «αυτοκτονία» προκειμένου να καταστεί σαφές ότι αναφέρονται εκεί.
Οι περιπτώσεις στις οποίες αναφερόμαστε από πλευράς εξέλιξης απέχουν από τη γενική και την υπέρ-ευφυή τεχνητή νοημοσύνη. Παρόλα αυτά, έχουν πραγματοποιήσει αλματώδη όχι μόνο τεχνική πρόοδο αλλά και κοινωνική επιρροή. Η τάση των προσωποποιημένων συστημάτων τεχνητής νοημοσύνης συνίσταται στη διαμόρφωση εξατομικευμένων chat bots τα οποία μπορούν να γίνουν φίλοι, γονείς, θεραπευτές, προσωπικότητες από ταινίες, εραστές κλπ. Φυσικά ο χρήστης επιλέγει τα θεμελιώδη χαρακτηριστικά κάθε τέτοιου συστήματος τεχνητής νοημοσύνης. Ο Al επέλεξε τον «ρομαντικό» τύπο, προσθέτοντας μια σειρά από χαρακτηριστικά (πάθος, ερωτισμό κλπ.).
Στη δημιουργία τέτοιων μορφών bots δραστηριοποιούνται μια σειρά εταιρειών. Η αγορά δε, γίνεται ολοένα μεγαλύτερη. Τα βασικά επιχειρήματα συνίστανται στο ότι πρόκειται για ασφαλείς επιλογές και για μορφή θεραπείας απέναντι στη μοναξιά. Αξίζει να αναρωτηθεί κανείς φυσικά, γιατί στις κοινωνίες μας, με παγκόσμιο πληθυσμό που πλησιάζει τα 8 δισ. οι άνθρωποι υποφέρουν από μοναξιά.
Το επιπλέον πρόβλημα συνίσταται στο ότι εξ ορισμού, κάθε «θεραπεία μοναξιάς» και κάθε αλληλεπίδραση με άνθρωπο δεν μπορεί παρά να είναι πολύπτυχη και σύνθετη. Σε αντίθεση με το κλασικό παράδειγμα ενός ρομπότ που καλείται να εκτελέσει μια ακολουθία από εντολές ή που (σε ό,τι αφορά την ποπ κουλτούρα) είναι εξ ορισμού καλόβολο, η φύση των συγκεκριμένων συστημάτων τεχνητής νοημοσύνης τα αναγκάζει να καθίστανται ολοένα πιο σύνθετα. Όσο όμως πιο σύνθετα γίνονται βάσει του σχεδιασμού τους αλλά και μέσα από την αλληλεπίδραση με τους ανθρώπους, τόσο πιο, όχι απλώς αναπόφευκτο αλλά αναγκαίο καθίσταται να αποκτούν περισσότερες όψεις, επομένως δε μοιραία και σκοτεινές. Επιπροσθέτως, κάθε μορφή φίλτρου ή «λογοκρισίας» από την εταιρεία ή οποιονδήποτε άλλον, κατά τις ίδιες εταιρείες και όχι μόνο, αφαιρεί από την αξία και την επιδραστικότητα των εν λόγω συστημάτων τεχνητής νοημοσύνης.
Εδώ όμως έχουμε μια θεμελιώδη αντίφαση. Συστήματα τεχνητής νοημοσύνης, πολύ χαμηλότερης μάλιστα από την αντίστοιχη των ανθρώπων αλλά ακόμα περισσότερο οντολογικώς διαφορετικής, μπορούν να υποκαθιστούν ανθρώπους και σχέσεις, επηρεάζοντας προς κομβικές αποφάσεις, ακόμα και ζωής ή θανάτου. Τείνουμε να αφήνουμε μερικές από τις κρισιμότερες αποφάσεις για τις ζωές μας σε ολοένα μαζικότερο επίπεδο και ολοένα περισσότερο, σε συστήματα μη ανθρώπινα, διαφορετικής και χαμηλότερης νοημοσύνης.
Αν μάλιστα η γενική τεχνητή νοημοσύνη επιτευχθεί (επομένως νοημοσύνη ίση με τη δική μας) τότε το ζήτημα θα καταστεί ακόμα πιο γιγάντιο: εκτός των υπολοίπων λόγων επειδή δεν ξέρουμε με ποιο τρόπο θα μπορούμε να πιστοποιήσουμε την ύπαρξη γενικής τεχνητής νοημοσύνης. Θα έχουμε για παράδειγμα μόνο ποσοτικά ή και ποιοτικά κριτήρια; Επιπλέον ποια θα είναι πιο συγκεκριμένα; Ποιος θα τα επιλέξει; Ακόμα, ποιος διασφαλίζει ότι από οντολογικής άποψης θα είναι παρόμοια με τη δική μας ακόμα και αν είναι από πλευράς IQ ίση ή και ανώτερη, η όποια γενική τεχνητή νοημοσύνη;
Πρόκειται για έναν αγώνα δρόμου «ξεφορτώματος» ανθρωπίνων σχέσεων στο περιβάλλον της τεχνητής νοημοσύνης ή αλλιώς στο μη-ανθρώπινο. Κάπου εδώ μπαίνει στη μέση ο Ισαάκ Ασίμοφ μάλλον ως διαψευσμένος προφήτης, με τους τρείς νόμους του:
Το ρομπότ δεν θα κάνει κακό σε άνθρωπο, ούτε με την αδράνειά του θα επιτρέψει να βλαφτεί ανθρώπινο ον. Το ρομπότ πρέπει να υπακούει τις διαταγές που του δίνουν οι άνθρωποι, εκτός αν αυτές οι διαταγές έρχονται σε αντίθεση με τον πρώτο νόμο. Το ρομπότ οφείλει να προστατεύει την ύπαρξή του, εφόσον αυτό δεν συγκρούεται με τον πρώτο και τον δεύτερο νόμο.
Όχι πια. Το ρομπότ μπορεί να βλάπτει τον άνθρωπο και είναι αμφίβολο αν δίνει δεκάρα για οποιονδήποτε νόμο του Ασίμοφ. Γιατί ο πολύ μεγάλος πλούτος θέλει να πουλήσει τέτοια ρομπότ ή και ρομπότ που δεν ξέρουν ότι είναι ρομπότ και πολύς κόσμος εκεί έξω είναι πολύ πρόθυμος να τα αγοράσει.
*Ο Θέμης Τζήμας είναι δικηγόρος, διδάκτορας δημοσίου δικαίου και πολιτικής επιστήμης του ΑΠΘ και μεταδιδακτορικός ερευνητής. Έχει δημοσιεύσει μελέτες σε διεθνή συνέδρια και σε νομικές επιθεωρήσεις και έχει συμμετάσχει σε διάφορες διεθνείς αποστολές.
ΠΗΓΗ: kosmodromio.gr