Σύμφωνα με την Washington Post, ο μηχανικός που έκανε αυτές τις δηλώσεις ονομάζεται Blake Lemoine και εργαζόταν για τον οργανισμό Responsible AI της Google. Μέσα στα καθήκοντά του ήταν το να εξετάσει εάν το μοντέλο LaMDA (Language Model for Dialogue Applications) δημιουργεί «μεροληπτική γλώσσα» ή «ρητορική μίσους».
Ο μηχανικός φέρεται να «ανησύχησε» για τα παραπάνω όταν το LaMDA άρχισε να δίνει «πειστικές απαντήσεις» για τα δικαιώματά του και την ηθική της ρομποτικής.
Τον Απρίλιο, ο μηχανικός μοιράστηκε ένα έγγραφο με στελέχη με τίτλο «Is LaMDA Sentient?» που περιέχει μια απομαγνητοφώνηση των συνομιλιών του με το AI, το οποίο λέει ότι δείχνει το μοντέλο LaMDA να επιχειρηματολογεί «ότι έχει συνείδηση επειδή έχει συναισθήματα, και υποκειμενική εμπειρία».
Η Google πιστεύει ότι οι ενέργειες του Lemoine σχετικά με τη δουλειά του στο LaMDA έχουν παραβιάσει τις πολιτικές εμπιστευτικότητάς της, αναφέρουν οι Washington Post και The Guardian.
Σε δήλωσή του, εκπρόσωπος της Google είπε ότι δεν υπάρχουν «αποδείξεις» ότι το LaMDA έχει συνείδηση. «Η ομάδα εξέτασε τις ανησυχίες του Blake Lemoine σύμφωνα με τις Αρχές Τεχνητής Νοημοσύνης μας και τον ενημέρωσε ότι τα στοιχεία δεν υποστηρίζουν τους ισχυρισμούς του. Του ειπώθηκε ότι δεν υπήρχαν στοιχεία που να αποδεικνύουν ότι το LaMDA έχει συνείδηση (ενώ υπάρχουν πολλά στοιχεία για το αντίθετο)», δήλωσε ο εκπρόσωπος της Google Μπράιαν Γκάμπριελ.
Λάζαρος Καραούλης στον ΕΤ: «Φέρνουμε την Τεχνητή Νοημοσύνη στον Δήμο Αθηναίων»
Η Google χρησιμοποιεί παρόμοια τεχνολογία γλωσσικού μοντέλου για τη λειτουργία Smart Compose του Gmail ή για ερωτήματα στις μηχανές αναζήτησης.
Ειδήσεις σήμερα
Βόμβα: «Ο Ερντογάν είναι έτοιμος να δημιουργήσει προσχεδιασμένο επεισόδιο στο Αιγαίο» [βίντεο]