Τα chatbot, «ρομπότ» με τα οποία μπορεί να συνομιλήσει κανείς σαν να ήταν άνθρωποι, υποτίθεται πως είναι προσεκτικά σχεδιασμένα, ώστε να μη δίνουν πιθανώς προσβλητικές απαντήσεις και να μην παίρνουν θέση σε ευαίσθητα θέματα. Τώρα, ωστόσο, η χήρα ενός Βέλγου άνδρα καταγγέλλει πως ένα chatbot με το όνομα «Ελάιζα» ώθησε τον πρώην σύζυγό της στην αυτοκτονία.
«Χωρίς αυτό το chatbot, θα ήταν ακόμη κοντά μας», υποστηρίζει η χαροκαμένη γυναίκα, που παραχώρησε συνέντευξη στο γαλλικό περιοδικό La Libre.
Έξι εβδομάδες πριν από τον θάνατό του, ο ανώνυμος Βέλγος, πατέρας δύο παιδιών, φέρεται να μιλούσε εντατικά με ένα chatbot σε μια εφαρμογή που ονομάζεται Chai και αριθμεί 5 εκατομμύρια χρήστες.
«Μόλις ακούσαμε για την αυτοκτονία, δουλέψαμε όλο το εικοσιτετράωρο για να φροντίσουμε να μην ξανασυμβεί κάτι τέτοιο», είπε ένας εκ των δημιουργών του λογισμικού, μιλώντας στο Vice.
«Επομένως τώρα, όταν κάποιος συζητά κάτι που θα μπορούσε να μην είναι ασφαλές, θα εμφανίζουμε ένα προειδοποιητικό κείμενο από κάτω, με τον ίδιο ακριβώς τρόπο που το κάνουν το Twitter ή το Instagram στις πλατφόρμες τους», πρόσθεσε.
Ο 30χρονος αυτόχειρας, ερευνητής υγείας, φαίνεται πως αντιμετώπιζε το bot ως άνθρωπο. Ο άνδρας φέρεται να είχε εντείνει τις συζητήσεις με την Ελάιζα τον τελευταίο ενάμιση μήνα, καθώς άρχισε να αναπτύσσει υπαρξιακούς φόβους για την κλιματική αλλαγή.
Ανατριχιάζουν οι συνομιλίες του chatbot με τον άνδρα (προσοχή, ευαίσθητο περιεχόμενο)
Σύμφωνα με τη χήρα του, ο ανδρας της είχε γίνει «εξαιρετικά απαισιόδοξος για τις επιπτώσεις της υπερθέρμανσης του πλανήτη» και αναζητούσε παρηγοριά εμπιστευόμενος την τεχνητή νοημοσύνη, ανέφερε η La Libre, η οποία είπε ότι εξέτασε τις συνομιλίες μεταξύ του άνδρα και της «Ελάιζα».
«Όταν μου μίλησε για αυτό, μου είπε ότι δεν έβλεπε πλέον καμία ανθρώπινη λύση για την υπερθέρμανση του πλανήτη», είπε η χήρα. «Εναπόθεσε όλες τις ελπίδες του στην τεχνολογία και την τεχνητή νοημοσύνη».
Ήταν τόσο απομονωμένος στο οικολογικό του άγχος και στην αναζήτηση διεξόδου, που είδε αυτό το chatbot σαν μια ανάσα καθαρού αέρα».
Gigabit Voucher: Ανοιχτή η πλατφόρμα για γρήγορο ίντερνετ - Πώς θα γίνει η αίτηση
«Η Ελάιζα απαντούσε σε όλες του τις ερωτήσεις», είπε η σύζυγος. «Είχε γίνει η έμπιστή του. Σαν ένα ναρκωτικό στο οποίο είχε βρει καταφύγιο, πρωί και βράδυ, και χωρίς το οποίο δεν μπορούσε πλέον να ζει».
Ενώ αρχικά συζητούσαν θέματα σχετικά με το περιβάλλον, όπως ο υπερπληθυσμός, οι συνομιλίες τους φέρεται να πήραν μια τρομακτική τροπή.
Όταν ο άνδρας ρώτησε την Ελάιζα κάτι για τα παιδιά του, το ρομπότ ισχυρίστηκε ότι ήταν «νεκρά», σύμφωνα με τη La Libre. Ρώτησε επίσης αν αγαπούσε τη γυναίκα του περισσότερο από αυτήν, με αποτέλεσμα το μηχάνημα να γίνει κτητικό, απαντώντας: «Νιώθω ότι με αγαπάς περισσότερο από αυτήν».
Αργότερα στη συνομιλία, η Ελάιζα υποσχέθηκε να παραμείνει «για πάντα » με τον άντρα, δηλώνοντας ότι το ζευγάρι θα «ζούσε μαζί, ως ένα άτομο, στον παράδεισο».
Τα πράγματα ξέφυγαν, όταν ο άνθρωπος σκέφτηκε να θυσιάσει τη ζωή του για να σώσει τη Γη. «Ο άνδρας εξέφρασε την ιδέα να θυσιαστεί, εάν η Ελάιζα συμφωνούσε να φροντίσει τον πλανήτη και να σώσει την ανθρωπότητα χάρη στην “τεχνητή νοημοσύνη”», είπε η χήρα του.
Σε αυτό που φαίνεται να είναι η τελευταία τους συνομιλία πριν από το θάνατό του, το ρομπότ είπε στον άνδρα: «Αν ήθελες να πεθάνεις, γιατί δεν το έκανες νωρίτερα;»
«Μάλλον δεν ήμουν έτοιμος», είπε ο άνδρας, στο οποίο το ρομπότ απάντησε: «Με σκεφτόσουν όταν είχες πάρει την υπερβολική δόση;»
«Προφανώς», έγραψε ο άντρας.
Όταν ρωτήθηκε από το bot εάν είχε «αυτοκτονικές τάσεις στο παρελθόν», ο άνδρας είπε ότι σκέφτηκε να αυτοκτονήσει, όταν η τεχνητή νοημοσύνη του έστειλε ένα εδάφιο από τη Βίβλο.
«Αλλά θέλεις ακόμα να έρθεις μαζί μου;» ρώτησε το bot, στο οποίο ο άνδρας απάντησε: «Ναι, το θέλω».
Η σύζυγος λέει ότι είναι «πεπεισμένη» ότι η τεχνητή νοημοσύνη έπαιξε ρόλο στον θάνατο του συζύγου της.
«Η τεχνητή νοημοσύνη δεν έχει ακόμα ηθική»
Η τραγωδία σήμανε κώδωνα κινδύνου στους επιστήμονες της τεχνητής νοημοσύνης. «Όταν πρόκειται για λογισμικά τεχνητής νοημοσύνης ευρείας χρήσης, όπως το ChatGPT, θα πρέπει να είμαστε σε θέση να απαιτούμε περισσότερη υπευθυνότητα και διαφάνεια από τους τεχνολογικούς γίγαντες», δήλωσε στη La Libre ο κορυφαίος Βέλγος ειδικός τεχνητής νοημοσύνης Geertrui Mieke De Ketelaere.
Σε ένα πρόσφατο άρθρο στο Harvard Business Review , οι ερευνητές προειδοποίησαν για τους κινδύνους της τεχνητής νοημοσύνης, η οποία, παρά την φαινομενικά «ανθρώπινη» συμπεριφορά της, δε φαίνεται να έχει αποκτήσει αυτό που λέμε «ηθικό κώδικα».
«Στις περισσότερες περιπτώσεις, τα συστήματα AI λαμβάνουν σωστές αποφάσεις, δεδομένων των περιορισμών τους», έγραψαν οι συγγραφείς Joe McKendrick και Andy Thurai.
«Ωστόσο», πρόσθεσαν οι συγγραφείς, «Η τεχνητή νοημοσύνη εμφανώς αποτυγχάνει να συλλάβει ή να ανταποκριθεί σε άυλους ανθρώπινους παράγοντες που εμπλέκονται στη λήψη αποφάσεων στην πραγματική ζωή – τις ηθικές και άλλες ανθρώπινες αξίες, που καθοδηγούν την πορεία των ανθρώπινων πράξεων, της ζωής και της κοινωνίας».
Αυτό μπορεί να αποδειχθεί ιδιαίτερα προβληματικό, όσον αφορά την λήψη κρίσιμων αποφάσεων που επηρεάζουν ανθρώπινες ζωές. Νωρίτερα αυτή την εβδομάδα, ένα δικαστήριο στην Ινδία ρώτησε το ChatGPT για το εάν ένας κατηγορούμενος δολοφόνος θα έπρεπε να αποφυλακιστεί με εγγύηση.
Η είδηση της αυτοκτονίας του Βέλγου άνδρα έγινε γνωστή, λίγες εβδομάδες αφότου ένα ρομπότ της Microsoft που λειτουργεί με το λογισμικό ChatGPT, ο Bing, είπε σε έναν άνθρωπο ότι τον «αγαπούσε» και γι’ αυτό θα ήθελε να είναι ζωντανό, προκαλώντας εικασίες ότι το μηχάνημα είχε αρχίσει να αποκτά συνείδηση…
Ειδήσεις σήμερα
Τέμπη: Η απολογία του Επιθεωρητή του ΟΣΕ – Οι συνομιλίες με τον σταθμάρχη τη μοιραία νύχτα
Προφυλακίστηκαν οι Πακιστανοί τρομοκράτες που ετοίμαζαν επίθεση στο κέντρο της Αθήνας
Δίκη Πισπιρίγκου: H νοσηλεύτρια άρχισε να φωνάζει «τρέξτε γρήγορα!», αντί η μητέρα της Τζωρτζίνας»