Από τις αρχές Δεκεμβρίου, ποτάμια μελανιού ρέουν για τα πλεονεκτήματα και τα μειονεκτήματα μιας τεχνολογίας που προχωρά με αυξανόμενη ταχύτητα, εκ των οποίων το ChatGPT αντιπροσωπεύει μόνο ένα μικρό μέρος. Ο δικός του δημιουργός, ο Σαμ Άλτμαν, ο Μπιλ Γκέιτς - που έχει επενδύσει μεγάλα ποσά σε αυτό - καθώς και ο Μασκ και μεγάλος αριθμός επιστημόνων, που ανησυχούν για τους πιθανούς κινδύνους της τεχνητής νοημοσύνης, κρούουν τον κώδωνα του κινδύνου και ζητούν να τεθούν όρια στη νέα τεχνολογία. Οι πιο σοβαροί κίνδυνοι είναι ότι η τεχνητή νοημοσύνη καταλήγει να ξεφεύγει από τον ανθρώπινο έλεγχο - το ον που τη συνέλαβε και τη δημιούργησε - καθώς και η πιθανότητα να πέσει σε «λάθος» χέρια. Ο κίνδυνος είναι ότι ο έλεγχος ξεφεύγει από τα χέρια του μεταμοντέρνου Doctors Strangelove και η μηχανή καταλήγει να κυριαρχεί αυτόνομα σε ό,τι έχει απομείνει από τον άνθρωπο. Μέσω της τεχνητής νοημοσύνης προκύπτει ο ανταγωνισμός μεταξύ ανθρώπων και ρομπότ. Ένας από τους μεγαλύτερους σύγχρονους επιστήμονες, ο φυσικός, κοσμολόγος και μαθηματικός Stephen Hawking, σκέφτηκε ότι η δημιουργία της «σκεπτόμενης μηχανής ακούγεται σαν θάνατος για την ανθρωπότητα, καθώς στο μέλλον μπορεί να αναπτύξει τη δική της ανεξάρτητη βούληση, σε σύγκρουση με τη δική μας». Ο μεγαλύτερος κίνδυνος δεν είναι η κακία αλλά η ικανότητα. «Μια υπερ-έξυπνη τεχνητή νοημοσύνη θα είναι εξαιρετικά καλή στην επίτευξη των στόχων της και αν αυτοί δεν ευθυγραμμιστούν με τους δικούς μας, θα έχουμε πρόβλημα», κατέληξε.
Το άγνωστο είναι ότι η επιστήμη και η τεχνολογία απελευθερώνουν άγνωστες και ανεξέλεγκτες δυνάμεις στη σχέση με μια ανθρωπότητα υβριδοποιημένη με τη μηχανή, τροφοδοτώντας τη σύγχυση μεταξύ φυσικού και τεχνητού, ελλείψει ηθικών και αξιακών πυξίδων. Χρειαζόμαστε έναν χάρτη, μια έρευνα μιας καινοτομίας, που μπορεί να αλλάξει ριζικά την ανθρώπινη κατάσταση. Ας ξεκινήσουμε με τον ορισμό: Η τεχνητή νοημοσύνη είναι ένας κλάδος της τεχνολογίας πληροφοριών που εργάζεται στη δημιουργία συστημάτων ικανών να εξοπλίζουν μηχανές με χαρακτηριστικά που θεωρούνται «ανθρώπινα», όπως οπτικές, χωροχρονικές αντιλήψεις και ικανότητες λήψης αποφάσεων. Πρόκειται για συσκευές που πληρούν τις προϋποθέσεις για τον ορισμό της νοημοσύνης που προτείνεται από τη θεωρία του Gardner. Ο ψυχολόγος Howard Gardner εντόπισε εννέα μορφές ανθρώπινης νοημοσύνης: διαπροσωπική, ενδοπροσωπική, γλωσσολογική-λεκτική, λογικο-μαθηματική, μουσική, νατουραλιστική (φυσιοκρατική), εικαστικό-χωρική (οπτικοχωρική), σωματικό-κιναισθητική και φιλοσοφικό-υπαρξιακή. Η τεχνητή νοημοσύνη διεισδύει σε όλες τις περιγραφόμενες περιοχές της ανθρώπινης νοημοσύνης, με την τάση να ξεπερνά τις ικανότητές μας.
Υπάρχει ανάγκη για σοβαρή συζήτηση για την τεχνητή νοημοσύνη, ειδικά καθώς οι κίνδυνοί της ανησυχούν τους ίδιους τους δημιουργούς. Ο Άλτμαν είπε ότι η τεχνητή νοημοσύνη θα «επαναπροσδιορίσει την κοινωνία όπως την ξέρουμε τώρα», κάτι που τον τρομάζει. Αυτή η τεχνολογία έχει τη δυνατότητα να είναι «η καλύτερη εφεύρεση που έχει δημιουργήσει ποτέ η ανθρωπότητα», αλλά ο δρόμος για τη βελτίωση της ζωής μας θα μπορούσε να υπονομευθεί εάν «τα αναγνωρισμένα λάθη της αξιοποιηθούν ως όπλο παραπληροφόρησης, για επιθέσεις στον κυβερνοχώρο ή άλλες διεστραμμένες πρακτικές». Τα μοντέλα που παράγονται μέχρι στιγμής λειτουργούν μέσω της απαγωγικής συλλογιστικής και μπορούσαν να δηλώσουν με σιγουριά τα επινοημένα πράγματα σαν να ήταν γεγονότα. Για τον Μπιλ Γκέιτς, «τα υπερέξυπνα AI μπορεί να είναι σε θέση να θέτουν τους δικούς τους στόχους. Θα μπορούσε μια μηχανή να αποφασίσει ότι οι άνθρωποι αποτελούν απειλή, να καταλήξει στο συμπέρασμα ότι τα συμφέροντά τους είναι διαφορετικά από τα δικά μας ή απλώς να σταματήσει να ενδιαφέρεται για εμάς;». Μια ερώτηση που τέθηκε από έναν γνώστη αυτού του επιπέδου, ακούγεται σαν απειλητική δήλωση. Ο ίδιος ο Χόκινγκ, το 2014, όταν η τεχνολογία AI ήταν ακόμη στα σπάργανα, προειδοποίησε ότι «η ανάπτυξη μιας πλήρους τεχνητής νοημοσύνης θα μπορούσε να σημαίνει το τέλος της ανθρώπινης φυλής. Οι άνθρωποι, όντα που περιορίζονται από την αργή βιολογική τους εξέλιξη, δεν θα μπορούν να ανταγωνιστούν τις μηχανές και θα είναι ξεπερασμένα».
Μπροστά σε τέτοια ανησυχητικά στοιχεία, προκαλεί έκπληξη -αλλά όχι πάρα πολύ, δεδομένου του προοδευτικού περιορισμού των χώρων συζήτησης- το γεγονός ότι δεν υπάρχει μια αρθρωμένη και δημόσια συζήτηση για την Τεχνητή Νοημοσύνη, μακριά από την εξειδίκευση των μυημένων. Εν τω μεταξύ, η εφαρμογή ChatGPT έχει αποκλειστεί στην Ιταλία λόγω αμφιβολιών σχετικά με τη συλλογή και τη διαχείριση των δεδομένων χρήστη, ένα άλλο πρόβλημα ελευθερίας και απορρήτου που συνδέεται με την ικανότητα των τεχνητών συσκευών να επεξεργάζονται δεδομένα και μεταδεδομένα, με όλες τις συνέπειες -όχι μόνο προγνωστικές- που απορρέουν από αυτήν. Εάν είναι θεμιτό να συγχαρούμε την ανθρώπινη νοημοσύνη, ικανή να επεξεργαστεί ένα τεχνητό αντίγραφο του εαυτού της με πολύ υψηλότερες δυνατότητες· αν είναι δυνατόν να περιμένουμε από την τεχνητή νοημοσύνη τη λύση κάποιων προβλημάτων και ορίων-περιορισμών του είδους μας, είναι εξίσου σημαντικό να αναρωτηθεί κανείς για τους κινδύνους που αφορούν όχι μόνο τον απλό παρατηρητή, που μπερδεύεται από το τεράστιο μέγεθος της πρόκλησης, αλλά και τους ίδιους τους επιστήμονες. Πάνω απ 'όλα, απαιτείται επειγόντως μια ηθική κρίση που μεταφράζεται σε δεσμευτικούς και επαληθεύσιμους κανόνες-πρότυπα. Όλοι οι συναγερμοί που πολλαπλασιάστηκαν τους τελευταίους μήνες δεν κατάφεραν να αξιολογήσουν την ικανότητα της τεχνητής νοημοσύνης να σχηματίζει, να αναδιατυπώνει, να τροποποιεί και κατά συνέπεια να διαχειρίζεται τον τρόπο σκέψης των ανθρώπων με χειριστικό τρόπο. Μπορεί να φαίνεται υπερβολή και ίσως να μην είναι η πρόθεση των δημιουργών, αλλά είναι γεγονός ότι η σχέση με τα ρομπότ τεχνητής νοημοσύνης ως προς τους ανθρώπους, με πραγματικούς διαλόγους, οδηγεί αναπόφευκτα στην αλλαγή της ανθρώπινης σκέψης προκαθορίζοντας το περιεχόμενό της. Η σχέση είναι άνιση, εξαιρετικά ανώτερη από την ανθρώπινη σχέση μεταξύ δασκάλου και μαθητή. Ο νόμος του Gabor προειδοποιεί ότι εάν κάτι είναι τεχνικά εφικτό, δεν θα υπάρχουν νόμοι, γραπτοί ή ηθικοί, που να σταματούν την έρευνα και την πρακτική εφαρμογή. Κατά συνέπεια, οι πιθανές εξελίξεις της τεχνητής νοημοσύνης, κυρίως η ικανότητα τροποποίησης σκέψεων, ιδεών, μορφών και κριτηρίων της ανθρώπινης σκέψης, θα τείνουν να αγνοούν τις συνέπειες. Εάν τροποποιηθούν κριτήρια και έννοιες, οι ανθρώπινες συμπεριφορές θα χειραγωγούνται με αυξανόμενη ένταση, κατά την κρίση όσων «σχηματίζουν» τήν A.I. (δηλαδή τής δίνουν περιεχόμενο).
Όλα αυτά είναι τόσο ενοχλητικά για την ανθρώπινη ελευθερία όσο η πιθανότητα η τεχνητή νοημοσύνη να ξεπεράσει τη νοημοσύνη μας σε όλες τις πτυχές της. Η ικανότητα διαμόρφωσης σκέψεων και κριτηρίων, άρα και συμπεριφορών, έχει πλέον επιτευχθεί, με όλους τους κινδύνους. Πρώτα απ' όλα, ο άνθρωπος αφήνεται στο έλεος του τεχνητού μηχανισμού (συγκεκριμένα, όποιου τον κατέχει και τον ελέγχει), με μια περαιτέρω επικίνδυνη συνέπεια, την απώλεια δεξιοτήτων και ικανοτήτων που προκύπτουν από τη μακροχρόνια δουλειά πολιτισμού και γνώσης. Όταν ο άνθρωπος άρχισε να χρησιμοποιεί αριθμομηχανές (πρώτα μηχανικές και μετά ψηφιακές), εγκατέλειψε τη νοητική αριθμητική καιτις μαθηματικές διαδικασίες που μαθαίνονταν με κόπο. Όλοι βιώνουν την απώλεια της αριθμητικής, των νοητικών και γραπτών δεξιοτήτων. Πολλοί σήμερα αισθάνονται άβολα με μια απλή διαίρεση με δεκαδικούς. Ίδια μοίρα για τη απώλεια μνήμης: Ας σκεφτούμε τον μειούμενο αριθμό τηλεφωνικών αριθμών, διευθύνσεων, γενικών εννοιών που θυμόμαστε απ' έξω. Ούτως ή άλλως είναι όλα στη μνήμη του υπολογιστή και τά smartphone είναι μόλις ένα κλικ μακριά. Πολλοί μαθητές δεν θυμούνται πλέον καν πώς εκτελούνται ορισμένες λειτουργίες· διδάσκονται αποκλειστικά να χρησιμοποιούν την τεχνητή συσκευή, εγκαταλείποντας τις τεχνικές, τις γνώσεις και τις δεξιότητες -της μνήμης και της μάθησης- που καθιστούν δυνατή την κατανόηση και την εκτέλεση υπολογισμών, τη διατύπωση σκέψεων και υποθέσεων, την διατήρηση, την επεξεργασία και τη μετατροπή δεξιοτήτων και γνώσεων σε πολιτισμό. Είναι περιττά: το μηχάνημα φροντίζει γι' αυτό. Όλοι χρησιμοποιούμε τον ψηφιακό υπολογιστή. υπολογιστές, φύλλα Excel, ενώ πιο εξελιγμένες εφαρμογές λύνουν άμεσα οποιαδήποτε εξίσωση ή πολύπλοκο υπολογισμό, χωρίς ανθρώπινη παρέμβαση εκτός από την πληκτρολόγηση των αριθμών που συνθέτουν το προς επίλυση πρόβλημα.
Η τεχνητή νοημοσύνη προχωρά παραπέρα: στις νέες εφαρμογές αρκεί να απευθύνεστε προφορικά στο μηχάνημα – δεν χρειάζεται πλέον να γράφετε – για να λαμβάνετε απαντήσεις σε χιλιοστά του δευτερολέπτου σε κάθε ερώτηση για οποιοδήποτε θέμα. Ακριβείς απαντήσεις, ναι, περιεκτικές, ίσως, αλλά σε μεγάλο βαθμό επηρεασμένες από το ποιος έκανε τον αρχικό προγραμματισμό. Είτε μιλάμε για ένα βιβλίο είτε για μια ιδέα, για την κλιματική αλλαγή ή για ιστορικά γεγονότα, η απάντηση θα γίνει αποδεκτή ως καθαρός χρυσός, μια αδιαμφισβήτητη αλήθεια από τον άνθρωπο που δεν έχει πια συνηθίσει να συλλογίζεται, να σκέφτεται, να διατυπώνει κρίσεις. Η απάντηση είναι αναγκαστικά προκατειλημμένη: είναι η ιδέα του ποιος προγραμμάτισε τη συσκευή ή ποιος την ελέγχει. Το μέλλον είναι ακόμη χειρότερο: τα επιτεύγματα της κυβερνητικής σημαίνουν ότι οι μηχανές είναι ολοένα και πιο ικανές να αναπαράγονται. Έτσι εξήγησε ένας από τους ιδρυτές της νέας επιστήμης, ο Norbert Wiener: «Τα πολλά αυτόματα της σημερινής εποχής συνδέονται με τον έξω κόσμο τόσο ως προς τη λήψη εντυπώσεων όσο και ως προς την εκτέλεση ενεργειών. Περιέχουν αισθητήρια όργανα, τελεστές και το ισοδύναμο ενός νευρικού συστήματος για τη μεταφορά πληροφοριών από το ένα στο άλλο. «Τι θα γίνει με εμάς εάν η τεχνητή νοημοσύνη θα μπορέσει πραγματικά να πάρει τον έλεγχο του εαυτού της και να διατυπώσει κρίσεις για το ατελές πλάσμα που θέτει ερωτήσεις και απαιτεί λύσεις; Θα έχει μια απάντηση σε κάθε ερώτηση που θα πιστεύουμε ως χρησμό, εγκαταλείποντας τη σκέψη. Μια συνέπεια – πέρα από τους κινδύνους μιας τεχνητής νοημοσύνης που έχει γίνει αυτόνομη από τους εφευρέτες της – είναι η γέννηση μιας διπλής ανθρωπότητας. Από τη μια πλευρά, η μειοψηφία αυτών που κατέχουν, ελέγχουν, προγραμματίζουν την τεχνητή νοημοσύνη, από την άλλη, η τεράστια πλειοψηφία των απλών ιδιωτών χρηστών που στερούνται την αυτονομία, την κρίση, και επομένως την ελευθερία και - τελικά - την ανθρωπιά. Επιπλέον, τα μηχανήματα δεν αναφέρουν πηγές και αν αναφέρουν (αυτό συμβαίνει με το Perplexity AI, ένα πλαίσιο συνομιλίας που ειδικεύεται στην έρευνα) είναι αυτοαναφορικές, επιλεγμένες από τον ίδιο αλγόριθμο.
Για να μην αναφέρουμε τα χονδροειδή λάθη στις συνομιλίες GPT, όταν, για παράδειγμα, σηματοδοτούν την ανυπαρξία διάσημων βιβλίων που εκδόθηκαν από αναγνωρισμένους συγγραφείς· ή συνοψίζουν τη σκέψη με τρόπο που συχνά είναι αντίθετος από την αληθινή ρήση και σκέψη ενός συγγραφέα. Όσοι κατέχουν θέματα στα οποία ένα ρομπότ έχει συμβουλευτεί την τεχνητή νοημοσύνη αναφέρουν ψέματα και παραποιήσεις, αρνητικά σχόλια σχετικά με τις «κατευθυντήριες γραμμές» (πάντα πολιτικά ορθές) με τις οποίες προγραμματίστηκε.
Εφόσον η ανθρώπινη λογική είναι ο νόμος της ελάχιστης προσπάθειας, δεν θα διδάσκεται πλέον στην πλειοψηφία, όπως συμβαίνει με τα μαθηματικά, την ιστορία, τη γεωγραφία, τη λογική, τη γραμματική, τη φιλοσοφία. Κανείς δεν θα κάνει μαθήματα ηθικής. Εκείνη την ημέρα - αν δεν έχει ήδη συμβεί - εκμεταλλευόμενη τις αδυναμίες, τους περιορισμούς και την άγνοιά μας, χωρίς καν να ξεπεράσει τις ικανότητες της ανθρώπινης σκέψης, η τεχνητή νοημοσύνη θα δώσει όλες τις απαντήσεις σε όλες τις ερωτήσεις, όπως το Excel προσφέρει αριθμητικά αποτελέσματα που δεν έχουμε ζητήσει. Η κριτική σκέψη θα έχει απωθηθεί και οι συμπεριφορές θα έχουν ρυθμιστεί, τυποποιηθεί, προβλεφθεί τέλεια, υπαγορεύοντας τον τρόπο που νιώθουμε, ενεργούμε και σκεφτόμαστε. Το τέλος της ανθρώπινης ελευθερίας.
Ανεξάρτητα από το χειρότερο σενάριο –η μηχανή να ελέγχει και να αναπαράγει τον εαυτό της χωρίς την παρέμβαση του ανθρώπινου εφευρέτη της, αφαιρώντας την ίδια την έννοια της ανθρώπινης ελευθερίας– ήδη σήμερα η τεχνητή νοημοσύνη βρίσκεται στα χέρια μιας μειοψηφίας τεχνικών, επιστημόνων και υπεραφεντικών. Είναι αυτοί που προγραμματίζουν ερωτήσεις και απαντήσεις. Οι υπόλοιποι άνθρωποι βρίσκονται –και θα βρίσκονται όλο και περισσότερο– στο έλεός τους, περιμένοντας να μάθουν αν το μηχάνημα θα κουραστεί από τέτοιους κατώτερους χρήστες. Χειραγώγηση, έλεγχος, ενιαία (μηχανική, μονομερής) σκέψη προκαθορισμένη από το μηχάνημα. απώλεια της ελευθερίας. Φοβίες ή πραγματικότητα; Αξίζει; Τουλάχιστον, ας το συζητήσουμε.
Δεν υπάρχουν σχόλια:
Δημοσίευση σχολίου