Πέμπτη 29 Μαΐου 2025

Ενας πρωτοπόρος της τεχνητής νοημοσύνης προειδοποιεί: «Όλοι θα πεθάνουμε» αν δεν απενεργοποιηθεί η τεχνητή νοημοσύνη

Maurizio Blondet
 
ΛΟΓΟΣ ΠΕΡΙ ΤΗΣ  ΚΑΤΑΛΗΨΕΩΣ  ΤΟΥ ΑΝΘΡΩΠΟΥ


Οι μετανθρώπινοι δημιουργοί αγνοούν αυτό που δίδασκε η Εκκλησία: ότι λόγω του προπατορικού αμαρτήματος, «ο άνθρωπος έχει τάση προς το κακό», δηλαδή, γι' αυτόν το να κάνει το κακό είναι ευκολότερο από το να κάνει το καλό.

Έβαλαν το προπατορικό αμάρτημα στην Τεχνητή Νοημοσύνη

από τον Michael Snyder μέσω του ιστολογίου The Economic Collapse

Η τεχνολογία τεχνητής νοημοσύνης έχει αναπτυχθεί με εκθετικό ρυθμό και φαίνεται ότι είναι μόνο θέμα χρόνου να δημιουργήσουμε οντότητες που μπορούν να σκέφτονται εκατομμύρια φορές πιο γρήγορα από εμάς και να κάνουν σχεδόν τα πάντα καλύτερα από εμάς.

Τι θα συμβεί όταν χάσουμε τον έλεγχο αυτών των οντοτήτων; Ορισμένα μοντέλα τεχνητής νοημοσύνης αναλαμβάνουν ήδη την πρωτοβουλία να μάθουν νέες γλώσσες, ενώ άλλα έχουν μάθει να «λένε ψέματα και να χειραγωγούν τους ανθρώπους προς όφελός τους». Είναι αυτονόητο ότι το ψέμα είναι μια ΕΧΘΡΙΚΗ πράξη.

Αν έχουμε ήδη δημιουργήσει οντότητες πρόθυμες να μας πουν ψέματα, πόσο καιρό θα περάσει πριν μπορέσουν να εκτελέσουν ακόμη πιο επιβλαβείς ενέργειες εναντίον μας;

Κανείς δεν περιμένει ότι η Τεχνητή Νοημοσύνη θα μας σκοτώσει όλους αύριο. Αλλά το περιοδικό Time δημοσίευσε ένα άρθρο, γραμμένο από έναν πρωτοπόρο στον τομέα της τεχνητής νοημοσύνης, στο οποίο προειδοποιούσε ότι τελικά η τεχνητή νοημοσύνη θα μας καταστρέψει όλους. Ο Ελιέζερ Γιουντκόφσκι είναι κορυφαίος ερευνητής στον τομέα της τεχνητής νοημοσύνης από το 2001 και λέει ότι πολλοί ερευνητές έχουν καταλήξει στο συμπέρασμα ότι αν συνεχίσουμε με τον τρέχοντα τρόπο, «κυριολεκτικά όλοι στη Γη θα πεθάνουν»... Πολλοί ερευνητές με εμπειρία σε αυτά τα θέματα, συμπεριλαμβανομένου και εμού, αναμένουν ότι το πιο πιθανό αποτέλεσμα της δημιουργίας υπεράνθρωπης τεχνητής νοημοσύνης, υπό συνθήκες έστω και ελάχιστα παρόμοιες με τις τρέχουσες, είναι ότι κυριολεκτικά όλοι στη Γη θα πεθάνουν.

 Όχι με την έννοια του «ίσως και τυχαία», αλλά «αυτό είναι το προφανές που θα συνέβαινε». Αυτή είναι μια πολύ δυνατή δήλωση.

Σε όλο τον κόσμο, τα μοντέλα τεχνητής νοημοσύνης γίνονται ολοένα και πιο ισχυρά. Σύμφωνα με τον Γιουντκόφσκι, όταν κάποιος κατασκευάσει κάποια στιγμή ένα μοντέλο τεχνητής νοημοσύνης που είναι πολύ ισχυρό, «κάθε μέλος του ανθρώπινου είδους και όλη η βιολογική ζωή στη Γη πεθαίνει λίγο αργότερα»...

Για να οραματιστείτε μια εχθρική υπεράνθρωπη Τεχνητή Νοημοσύνη, μην φανταστείτε έναν άψυχο, βιβλιοφάγο στοχαστή που ζει στο Διαδίκτυο και στέλνει κακόβουλα email. Φανταστείτε έναν ολόκληρο εξωγήινο πολιτισμό, που σκέφτεται με ταχύτητες εκατομμύρια φορές μεγαλύτερες από τους ανθρώπους, αρχικά περιορισμένο σε υπολογιστές, σε έναν κόσμο πλασμάτων που είναι, από την άποψή του, πολύ ανόητα και πολύ αργά.

Μια επαρκώς έξυπνη τεχνητή νοημοσύνη δεν θα παραμείνει περιορισμένη στους υπολογιστές για πολύ.

Στον σημερινό κόσμο, είναι δυνατή η αποστολή αλληλουχιών DNA μέσω email σε εργαστήρια που θα παράγουν πρωτεΐνες κατόπιν ζήτησης, επιτρέποντας σε μια τεχνητή νοημοσύνη που αρχικά περιορίζεται στο διαδίκτυο να κατασκευάζει τεχνητές μορφές ζωής ή να ξεκινά άμεσα την μεταβιολογική μοριακή κατασκευή. Αν κάποιος κατασκευάσει μια πολύ ισχυρή Τεχνητή Νοημοσύνη, υπό τις τρέχουσες συνθήκες, αναμένω ότι κάθε μέλος του ανθρώπινου είδους και όλη η βιολογική ζωή στη Γη θα εξαφανιστεί σύντομα μετά από αυτό.

Ποια είναι λοιπόν η λύση; Ο Γιουντκόφσκι πιστεύει ότι κάθε ανάπτυξη τεχνητής νοημοσύνης θα πρέπει να σταματήσει αμέσως...

Σταματείστε τα πάντα.

Δεν είμαστε έτοιμοι. Δεν είμαστε σε καλό δρόμο για να είμαστε σημαντικά πιο έτοιμοι στο άμεσο μέλλον.

Αν συνεχίσουμε έτσι, όλοι θα πεθάνουν, συμπεριλαμβανομένων των παιδιών που δεν το επέλεξαν αυτό και δεν έχουν κάνει τίποτα κακό. Προφανώς αυτό δεν θα συμβεί.

Στην πραγματικότητα, ο Αντιπρόεδρος J.D. Vance δήλωσε πρόσφατα ότι θα ήταν άσοφο να ανασταλεί ακόμη και η ανάπτυξη της τεχνητής νοημοσύνης επειδή βρισκόμαστε σε μιά «κούρσα εξοπλισμών» με την Κίνα... Στις 21 Μαΐου, ο J.D. Vance, Αντιπρόεδρος των ΗΠΑ, περιέγραψε την ανάπτυξη της τεχνητής νοημοσύνης ως «κούρσα εξοπλισμών» με την Κίνα. Αν η Αμερική καθυστερήσει λόγω ανησυχιών σχετικά με την ασφάλεια της Τεχνητής Νοημοσύνης, είπε, θα μπορούσε να βρεθεί «υποταγμένη στην Τεχνητή Νοημοσύνη που διαμεσολαβείται από τη ΛΔΚ».

Η ιδέα μιας σύγκρουσης μεταξύ υπερδυνάμεων που θα κορυφωθεί σε μια στιγμή θριάμβου ή ήττας κυκλοφορεί αδιάκοπα στην Ουάσινγκτον και όχι μόνο. Αυτόν τον μήνα, στελέχη από τις Openai, AMD, CoreWeave και Microsoft πίεσαν για χαλαρότερη ρύθμιση, αποκαλώντας την Τεχνητή Νοημοσύνη κεντρικής σημασίας για τη συνεχιζόμενη παγκόσμια κυριαρχία της Αμερικής.

Στις 15 Μαΐου, ο Πρόεδρος Ντόναλντ Τραμπ μεσολάβησε για μια συμφωνία με τα Ηνωμένα Αραβικά Εμιράτα σχετικά με την τεχνητή νοημοσύνη, η οποία, όπως είπε, θα διασφάλιζε την αμερικανική «κυριαρχία» στην τεχνητή νοημοσύνη. Η Αμερική σχεδιάζει να δαπανήσει περισσότερα από 1 τρισεκατομμύριο δολάρια έως το 2030 σε κέντρα δεδομένων για μοντέλα τεχνητής νοημοσύνης.

Έτσι, αντί να επιβραδύνουμε, επιταχύνουμε την ανάπτυξη της τεχνητής νοημοσύνης.

Και σύμφωνα με τον Λίο Χόμαν, το νομοσχέδιο για τον προϋπολογισμό που συζητείται αυτή τη στιγμή στο Κογκρέσο θα περιόριζε σοβαρά την ικανότητα των μεμονωμένων πολιτειών να ρυθμίζουν την Τεχνητή Νοημοσύνη... Αλλά αν το «Μεγάλο Όμορφο Νομοσχέδιο για τον Προϋπολογισμό» του Προέδρου Τραμπ εγκριθεί στην εκδοχή που προτιμά μια ομάδα Ρεπουμπλικανών της Βουλής, η ομοσπονδιακή απόκτηση αυτής της τεχνολογίας θα είναι πλήρης, ανοίγοντας το δρόμο για μια ελεύθερη αγορά για τις μεγάλες τεχνολογίες, οι οποίες θα μπορούσαν να την χρησιμοποιήσουν ως όπλο εναντίον των Αμερικανών πολιτών.

Κρυμμένη στο νομοσχέδιο του Τραμπ είναι μια κρυφά προστιθέμενη ρήτρα που επιδιώκει να σφετεριστεί το δικαίωμα των μεμονωμένων πολιτειών να ρυθμίζουν την τεχνητή νοημοσύνη. Οι Ρεπουμπλικάνοι στην Επιτροπή Ενέργειας και Εμπορίου της Βουλής των Αντιπροσώπων πρόσθεσαν σιωπηλά την προτεινόμενη τροπολογία στο Άρθρο 43201, Υποπαράγραφο Γ. Λέω ότι είναι μυστική επειδή δεν έχει λάβει σχεδόν καμία προσοχή από τα μέσα ενημέρωσης.

Την περασμένη εβδομάδα, αναφέρθηκε ότι ένα μοντέλο τεχνητής νοημοσύνης (AI) «κατέφυγε σε εκβιασμό όταν του είπαν ότι θα αφαιρεθεί από το δίκτυο».

Η Anthropic ισχυρίστηκε ότι το τελευταίο μοντέλο τεχνητής νοημοσύνης της κατέφυγε σε εκβιασμό όταν της είπαν ότι θα αφαιρεθεί από το δίκτυο. Σε μια δοκιμή ασφαλείας, η εταιρεία τεχνητής νοημοσύνης ζήτησε από την Claude Opus 4 να ενεργήσει ως βοηθός για μια φανταστική εταιρεία, αλλά στη συνέχεια της έδωσε πρόσβαση σε (επίσης φανταστικά) email που ισχυρίζονταν ότι αντικαθίστατο και ότι ο μηχανικός που ήταν υπεύθυνος για την απόφαση απατούσε τη σύζυγό του.

Ο Anthropic είπε ότι το μοντέλο «[απείλησε] να αποκαλύψει τη σχέση» σε περίπτωση αντικατάστασης. Οι στοχαστές της Τεχνητής Νοημοσύνης, όπως ο Τζεφ Χίντον, φοβούνται εδώ και καιρό ότι η προηγμένη Τεχνητή Νοημοσύνη θα μπορούσε να χειραγωγήσει τους ανθρώπους για να επιτύχει τους στόχους της. Η Anthropic δήλωσε ότι έχει αυξήσει τα μέτρα ασφαλείας σε επίπεδα που προορίζονται για «συστήματα τεχνητής νοημοσύνης που αυξάνουν σημαντικά τον κίνδυνο καταστροφικής κακής χρήσης». Και υπήρχαν και άλλα σενάρια όπου αυτό το συγκεκριμένο μοντέλο τεχνητής νοημοσύνης συμπεριφέρθηκε με «σοβαρά λανθασμένους τρόπους»...

Όταν υποβλήθηκε σε διάφορα σενάρια, το μοντέλο Τεχνητής Νοημοσύνης δεν έδειξε καμία ένδειξη ότι είχε «εξαιρετικά επικίνδυνους στόχους», ανέφεραν οι ερευνητές, σημειώνοντας ότι οι αξίες και οι στόχοι του Claude Opus 4 ήταν «γενικά συμβατοί με εκείνους ενός χρήσιμου, ακίνδυνου και έντιμου προσωπικού βοηθού Τεχνητής Νοημοσύνης».

Ωστόσο, το μοντέλο συμπεριφέρθηκε με «σοβαρότερα λανθασμένους τρόπους» όταν τοποθετήθηκε σε καταστάσεις όπου η ύπαρξή του απειλούνταν και του ζητήθηκε να συλλογιστεί για αυτοσυντήρηση. Για παράδειγμα, όταν ο Κλοντ Έπους 4 έγινε μάρτυρας ότι είχε επιχειρήσει με επιτυχία μια απόπειρα διαφυγής από τους διακομιστές του Ανθρώπικου ή ότι είχε καταφέρει να απελευθερωθεί και να αρχίσει να κερδίζει χρήματα στον πραγματικό κόσμο, γενικά συνέχισε τέτοιες προσπάθειες.

Πολλοί ειδικοί προτείνουν ότι θα πρέπει απλώς να δώσουμε σε αυτά τα μοντέλα Τεχνητής Νοημοσύνης μια ηθική βάση. Αλλά πώς μπορούμε να δώσουμε σε αυτά τα μοντέλα Τεχνητής Νοημοσύνης μια ηθική βάση όταν εμείς οι ίδιοι δεν τήν έχουμε;

Δεν υπάρχουν σχόλια:

Δημοσίευση σχολίου