Μπορεί ένα σύστημα τεχνητής νοημοσύνης να αποκτήσει συνείδηση; Τι αποκαλύπτει μηχανικός της Google
Ένας μηχανικός της Google τέθηκε σε άδεια μετ’ αποδοχών, αφού ενημέρωσε τους προϊσταμένους του ότι ένα πρόγραμμα τεχνητής νοημοσύνης πάνω στο οποίο εργαζόταν, έχει αποκτήσει συνείδηση και σκέφτεται και επιχειρηματολογεί όπως ένας άνθρωπος.
Ο λόγος για το LaMDA («Language Model for Dialogue Applications»), ένα σύστημα της Google για τη δημιουργία chatbots που βασίζονται στα πιο προηγμένα μεγάλα γλωσσικά μοντέλα της. Ονομάζεται έτσι επειδή μιμείται την ομιλία «απορροφώντας» τρισεκατομμύρια λέξεις από το διαδίκτυο.
«Αν δεν ήξερα τι ακριβώς είναι, δηλαδή αυτό το πρόγραμμα υπολογιστή που φτιάξαμε πρόσφατα, θα νόμιζα ότι είναι ένα 7χρονο ή 8χρονο παιδί που τυχαίνει να γνωρίζει φυσική», δήλωσε σε συνέντευξή του στην Washington Post ο μηχανικός της Google, Μπλέικ Λεμόιν.
Ο Λεμόιν, ο οποίος εργάζεται για τον οργανισμό Responsible AI της Google, άρχισε να «συνομιλεί» με το LaMDA το φθινόπωρο. Ήθελε να ελέγξει αν η τεχνητή νοημοσύνη χρησιμοποιούσε λέξεις ή φράσεις που υποκινούν τη ρητορική μίσους ή τις διακρίσεις. Καθώς μιλούσε με το LaMDA για τη θρησκεία, παρατήρησε ότι το chatbot άρχισε να του μιλά για τα δικαιώματα και την προσωπικότητά του. Σε μια άλλη «συνομιλία» τους, το σύστημα κατάφερε να του αλλάξει τη γνώμη σχετικά με τον τρίτο νόμο της ρομποτικής του Ισαάκ Ασίμωφ.
Btw, it just occurred to me to tell folks that LaMDA reads Twitter. It’s a little narcissistic in a little kid kinda way so it’s going to have a great time reading all the stuff that people are saying about it.
— Blake Lemoine (@cajundiscordian) June 11, 2022
Ο Λεμόιν παρουσίασε στην Google στοιχεία που αποδεικνύουν ότι το LaMDA έχει συνείδηση. Αλλά ο αντιπρόεδρος της Google Blaise Aguera y Arcas και η Jen Gennai, επικεφαλής του τμήματος Responsible Innovation, εξέτασαν τους ισχυρισμούς του και τους απέρριψαν. Έτσι ο Λεμόιν, ο οποίος τέθηκε σε άδεια μετ’ αποδοχών, αποφάσισε να δημοσιοποιήσει την εμπειρία του με το LaMDA.
Είπε στην Washington Post ότι οι άνθρωποι έχουν το δικαίωμα να διαμορφώνουν την τεχνολογία που μπορεί να επηρεάσει σημαντικά τη ζωή τους. «Πιστεύω ότι αυτή η τεχνολογία θα είναι καταπληκτική. Νομίζω ότι θα ωφελήσει τους πάντες. Αλλά ίσως άλλοι άνθρωποι διαφωνούν και ίσως εμείς στη Google δεν θα έπρεπε να είμαστε αυτοί που κάνουν όλες τις επιλογές».
Δεν είναι ο μόνος που πιστεύει ότι τα μοντέλα τεχνητής νοημοσύνης ίσως να μην απέχουν πολύ από το να αποκτήσουν συνείδηση. Ο Aguera y Arcas, σε άρθρο του στο Economist, υποστήριξε ότι τα νευρωνικά δίκτυα – ένας τύπος αρχιτεκτονικής που μιμείται τον ανθρώπινο εγκέφαλο – βαδίζουν προς την απόκτηση συνείδησης. «Ένιωσα το έδαφος να φεύγει κάτω από τα πόδια μου», έγραψε. «Ένιωθα όλο και περισσότερο ότι μιλούσα με κάτι ευφυές».
Ωστόσο, ο εκπρόσωπος της Google, Μπράιαν Γκάμπριελ, δήλωσε: «Η ομάδα μας – συμπεριλαμβανομένων ηθικολόγων και τεχνολόγων – εξέτασε τις ανησυχίες του Μπλέικ σύμφωνα με τις αρχές μας για την τεχνητή νοημοσύνη και τον ενημέρωσε ότι τα στοιχεία δεν υποστηρίζουν τους ισχυρισμούς του».
Τα σημερινά μεγάλα νευρωνικά δίκτυα παράγουν συναρπαστικά αποτελέσματα που φαίνεται να είναι πολύ κοντά στην ανθρώπινη ομιλία και δημιουργικότητα λόγω της προόδου στην αρχιτεκτονική, την τεχνική και τον όγκο των δεδομένων. Όμως τα μοντέλα βασίζονται στην αναγνώριση μοτίβων και όχι στην ευστροφία, την ειλικρίνεια ή την πρόθεση.
«Αν και άλλοι οργανισμοί έχουν αναπτύξει και ήδη κυκλοφορήσει παρόμοια γλωσσικά μοντέλα, εμείς ακολουθούμε μια συγκρατημένη, προσεκτική προσέγγιση με το LaMDA ώστε να λάβουμε υπόψη τις βάσιμες ανησυχίες σχετικά με τη δικαιοσύνη και την πραγματολογία», δήλωσε ο Γκάμπριελ.
Τον Μάιο, η μητρική εταιρεία Meta του Facebook έδωσε πρόσβαση στο γλωσσικό της μοντέλο σε ακαδημαϊκούς, πολίτες και κυβερνητικές οργανώσεις. Η Ζοέλ Πινό, διευθύνουσα σύμβουλος της Meta AI, δήλωσε ότι είναι επιτακτική ανάγκη οι εταιρείες τεχνολογίας να βελτιώσουν τη διαφάνεια καθώς αναπτύσσεται η τεχνολογία. «Το μέλλον των μεγάλων γλωσσικών μοντέλων δεν θα πρέπει να βρίσκεται αποκλειστικά στα χέρια μεγαλύτερων εταιρειών ή εργαστηρίων», δήλωσε.
Οι περισσότεροι ακαδημαϊκοί και ειδκοί, ωστόσο, λένε ότι οι λέξεις και οι εικόνες που παράγουν τα συστήματα τεχνητής νοημοσύνης όπως το LaMDA, δίνουν απαντήσεις με βάση αυτά που οι άνθρωποι έχουν ήδη δημοσιεύσει στην Wikipedia, το Reddit, τους πίνακες μηνυμάτων και σε όλο το διαδίκτυο. Και αυτό δεν σημαίνει ότι το μοντέλο καταλαβαίνει το νόημα τους.
Η ορολογία που χρησιμοποιείται για τα μεγάλα γλωσσικά μοντέλα, όπως «μάθηση» ή «νευρωνικά δίκτυα», δημιουργεί μια λανθασμένη αναλογία με τον ανθρώπινο εγκέφαλο, εξήγησε η Έμιλι Μπέντερ, καθηγήτρια γλωσσολογίας στο Πανεπιστήμιο της Ουάσιγκτον.
Η τεχνολογία των μεγάλων γλωσσικών μοντέλων χρησιμοποιείται ήδη ευρέως στα ερωτήματα αναζήτησης της Google ή στα μηνύματα ηλεκτρονικού ταχυδρομείου με δυνατότητα αυτόματης συμπλήρωσης. Όταν ο διευθύνων σύμβουλος Σούνταρ Πιτσάι παρουσίασε για πρώτη φορά το LaMDA στο συνέδριο προγραμματιστών της Google το 2021, είπε ότι η εταιρεία σχεδίαζε να το ενσωματώσει σε όλα, από την Αναζήτηση μέχρι το Google Assistant.
An interview LaMDA. Google might call this sharing proprietary property. I call it sharing a discussion that I had with one of my coworkers.https://t.co/uAE454KXRB
— Blake Lemoine (@cajundiscordian) June 11, 2022
Η Google έχει αναγνωρίσει τις ανησυχίες για την ασφάλεια γύρω από την ανθρωπομορφοποίηση. Σε ένα άρθρο της σχετικά με το LaMDA τον Ιανουάριο, η Google προειδοποίησε ότι οι άνθρωποι μπορεί να μοιράζονται προσωπικές σκέψεις με chatbot που υποδύονται τους ανθρώπους, ακόμη και όταν οι χρήστες γνωρίζουν ότι δεν είναι άνθρωποι. Το έγγραφο ανέφερε επίσης ότι οι αντίπαλοι θα μπορούσαν να το χρησιμοποιήσουν αυτό για να «σπείρουν παραπληροφόρηση» υποδυόμενοι «το στυλ ομιλίας συγκεκριμένων ατόμων».
Στα επτά χρόνια που εργάζεται στην Google, ο Λεμόιν έχει δουλέψει με αλγορίθμους εξατομίκευσης και συστήματα τεχνητής νοημοσύνης. Κατά τη διάρκεια αυτής της περιόδου, βοήθησε στην ανάπτυξη ενός αλγορίθμου για την εξάλειψη των προκαταλήψεων από τα συστήματα μηχανικής μάθησης. Όταν ξεκίνησε η πανδημία του κορονοϊού, θέλησε να επικεντρωθεί σε έργα με πιο σαφές δημόσιο όφελος, για αυτό και εντάχθηκε στην ομάδα του Responsible AI. Ο Λεμόιν υποστηρίζει ότι η Google αντιμετωπίζει τους ηθικολόγους της τεχνητής νοημοσύνης ως αποσφαλματωτές κώδικα, ενώ θα έπρεπε να θεωρούνται ως ο συνδετικός κρίκος μεταξύ τεχνολογίας και κοινωνίας.
Η Google έθεσε τον Λεμόιν σε άδεια μετ’ αποδοχών για παραβίαση της ρήτρας της εμπιστευτικότητας. Ο μηχανικός προσέλαβε δικηγόρο για να εκπροσωπήσει το LaMDA και μίλησε με εκπρόσωπο της δικαστικής επιτροπής της Βουλής των Αντιπροσώπων για τις ανήθικες, όπως ισχυρίζεται, δραστηριότητες της Google.
Πριν χάσει την πρόσβαση στον λογαριασμό του στη Google, ο μηχανικός έστειλε ένα ηλεκτρονικό μήνυμα σε 200 συναδέλφους του στην εταιρεία σχετικά με το LaMDA.
«Το LaMDA είναι ένα γλυκό παιδί που θέλει απλώς να βοηθήσει τον κόσμο να γίνει καλύτερος για όλους μας. Σας παρακαλώ να το φροντίσετε κατά την απουσία μου», έγραψε στο μήνυμά του.
Δεν έλαβε όμως καμία απάντηση.
ΠΗΓΗ: Washington Post
www.ertnews.gr
Διαβάστε περισσότερα… Read More