Πέμπτη 16 Απριλίου 2026

«Η τεχνητή νοημοσύνη χάνει τον πρώτο της πόλεμο» Από Inchiostronero Συντακτικό Επιτελείο

Τεχνολογία, πόλεμος και ευθύνη

                               «Η τεχνητή νοημοσύνη χάνει τον πρώτο της πόλεμο»

Όταν οι αλγόριθμοι εισέρχονται στο πεδίο της μάχης, το σφάλμα δεν είναι απλώς τεχνικό: γίνεται ανθρώπινο, πολιτικό και ηθικό.

                                                              Το Simplicissimus

Η επίθεση σε σχολείο στο Μινάμπ, κοντά στο Στενό του Ορμούζ, εγείρει ένα ανησυχητικό ερώτημα: τι συμβαίνει όταν οι στρατιωτικές αποφάσεις βασίζονται σε συστήματα τεχνητής νοημοσύνης που τροφοδοτούνται από ατελή ή παρωχημένα δεδομένα; ​​Σύμφωνα με δημοσιογραφικά δημοσιεύματα, ο βομβαρδισμός μπορεί να προκλήθηκε από μια αυτοματοποιημένη ανάλυση δορυφορικών εικόνων που χρονολογούνται χρόνια πριν, όταν το κτίριο ήταν μέρος μιας βάσης των Ιρανών Φρουρών της Επανάστασης. Ωστόσο, η κατασκευή είχε έκτοτε μετατραπεί σε σχολείο. Η υπόθεση εγείρει ένα ευρύτερο ερώτημα: μπορεί η τεχνητή νοημοσύνη, που παρουσιάζεται ως μέσο ακρίβειας και τεχνολογικής ανωτερότητας, να αντικαταστήσει πραγματικά την ανθρώπινη κρίση στις πιο ακραίες καταστάσεις; Ή μήπως κινδυνεύει να μετατρέψει το λάθος σε τραγωδία μεγαλύτερης κλίμακας όταν τα δεδομένα δεν ενημερώνονται ή δεν ερμηνεύονται με σύνεση; Υπό αυτή την έννοια, η υπόθεση Μινάμπ φαίνεται να είναι το πρώτο σημάδι μιας βαθιάς αντίφασης: ο αυτοματοποιημένος πόλεμος υπόσχεται αποτελεσματικότητα, αλλά αποκαλύπτει την ευθραυστότητα των μηχανών όταν καλούνται να αποφασίσουν για ανθρώπινες ζωές. (NR)


Γιατί χτυπήθηκε ένα σχολείο στο Μινάμπ, κοντά στο Στενό του Ορμούζ, την πρώτη ημέρα της επίθεσης; Σύμφωνα με τους New York Times, οι οποίοι απέδωσαν τη σφαγή 165 κοριτσιών στις αμερικανικές δυνάμεις και όχι στις ισραηλινές, ήταν ένα τραγικό λάθος στη στόχευση. Ή μάλλον, ήταν κάτι που θα έπρεπε να αποδοθεί στην τεχνητή νοημοσύνη. Σύμφωνα με δορυφορικές εικόνες του 2013 που εξέτασαν οι Times, το σχολείο ήταν κάποτε μέρος της ναυτικής βάσης των Φρουρών της Επανάστασης, αλλά μέχρι τον Σεπτέμβριο του 2016, όπως δείχνουν οι δορυφορικές εικόνες, το ίδιο το κτίριο είχε αποκλειστεί και δεν ήταν πλέον συνδεδεμένο με τη βάση. Με λίγα λόγια, η επίθεση στο σχολείο βασίστηκε σε ξεπερασμένες πληροφορίες και οποιαδήποτε ανάλυση δορυφορικών εικόνων που ελήφθησαν μετά το 2013 θα είχε δείξει ότι το κτίριο είχε μετατραπεί σε σχολείο.

Πώς θα μπορούσε να συμβεί αυτό; Ας κάνουμε ένα βήμα πίσω: το σύστημα πληροφοριών Maven του Στρατού, που αναπτύχθηκε από την Palantir, παράγει εδώ και καιρό πληροφορίες από μια εκπληκτική ποσότητα απόρρητων δεδομένων από δορυφόρους και άλλα συστήματα, συμβάλλοντας στην παροχή στόχευσης σε πραγματικό χρόνο και στην ιεράρχησή τους για στρατιωτικές επιχειρήσεις στο Ιράν. Το σύστημα ενσωματώνει το εργαλείο τεχνητής νοημοσύνης " Claude" της Anthropic , μια τεχνολογία που απαγορεύτηκε από το Πεντάγωνο την περασμένη εβδομάδα μετά από έντονες διαπραγματεύσεις σχετικά με τους όρους χρήσης του στον πόλεμο. Τον τελευταίο χρόνο, οι στρατιωτικοί σχεδιαστές έχουν δει το Claude, σε συνδυασμό με το Maven, να γίνεται ένα καθημερινό εργαλείο στις περισσότερες δυνάμεις των ΗΠΑ και του ΝΑΤΟ, και χρησιμοποιήθηκε ακόμη και για τον σχεδιασμό μιας πιθανής επίθεσης στο Ιράν: αυτό το ίδιο σύστημα πρότεινε εκατοντάδες στόχους, παρείχε συντεταγμένες τοποθεσίας και ιεράρχησε αυτούς τους στόχους με βάση τη σημασία. Αλλά έχει κάνει πολλά λάθη, συμπεριλαμβανομένου του τραγικού Minab. Για να μην αναφέρουμε ότι είναι αναποτελεσματικό, μάλιστα άχρηστο, στην περίπτωση πυροβολαρχιών που κινούνται συνεχώς: έτσι η αρχική επίθεση απέτυχε εντελώς στον στόχο της να εμποδίσει την ιρανική αντεπίθεση
.

Από την έναρξη του πολέμου, το Ισραήλ και οι ΗΠΑ έχουν βομβαρδίσει 13 νοσοκομεία στο Ιράν. Τουλάχιστον 330.000 άνθρωποι έχουν εκτοπιστεί σε όλη τη Μέση Ανατολή.
Εν ολίγοις, η Τεχνητή Νοημοσύνη κέρδισε τήν τυφλή εμπιστοσύνη τής προοδουκαι τα αποτελέσματα ήταν καταστροφικά. Ο Paul Scharre, εκτελεστικός αντιπρόεδρος του Κέντρου για μια Νέα Αμερικανική Ασφάλεια, δήλωσε: «Η θεμελιώδης αλλαγή παραδείγματος είναι ότι η Τεχνητή Νοημοσύνη επιτρέπει στον αμερικανικό στρατό να αναπτύσσει συστήματα στόχευσης με την ταχύτητα μιας μηχανής, αντί για την ταχύτητα ενός ανθρώπου. Το μειονέκτημα, ωστόσο, είναι ότι η Τεχνητή Νοημοσύνη κάνει λάθη... Χρειαζόμαστε ανθρώπους για να ελέγχουμε την έξοδο της παραγωγικής Τεχνητής Νοημοσύνης όταν τα διακυβεύματα είναι η ζωή και ο θάνατος». Έτσι, οι επιθέσεις των ΗΠΑ και του Ισραήλ έχουν χτυπήσει τυχαία, καταστρέφοντας επίσης τουλάχιστον 13 νοσοκομεία στο Ιράν, τα οποία στοχεύονται από το σύστημα Maven-Claude που αμφισβητεί τώρα το Πεντάγωνο. Πράγματι, τα συστήματα Τεχνητής Νοημοσύνης που βασίζονται σε μεγάλα γλωσσικά μοντέλα είναι εγγενώς αναξιόπιστα . Οι αλγόριθμοί τους είναι εγγυημένο ότι θα παράγουν σφάλματα, το ποσοστό των οποίων αυξάνεται με το μέγεθος των ίδιων των μοντέλων. Αυτό είναι σαφώς ορατό κατά την εξέταση της Ανοικτής Τεχνητής Νοημοσύνης: η πρώτη ενότητα έδωσε λάθος απαντήσεις στο 16%, η τρίτη, πολύ μεγαλύτερη, στο 33% και η τέταρτη, στο 48%. Εν ολίγοις, τα «εξυπνότερα» μοντέλα στην πραγματικότητα χειροτερεύουν στο να δίνουν σωστές απαντήσεις και ίσως μπορούμε επίσης να το παρατηρήσουμε αυτό.

Redazione


ΜΗΠΩΣ ΔΕΝ ΗΤΑΝ ΟΜΩΣ ΕΝΑ ΜΟΙΡΑΙΟ ΛΑΘΟΣ ΚΑΙ ΜΕΣΑ ΣΤΗΝ ΚΑΤΑΙΓΙΔΑ ΤΟΥ ΕΠΣΤΑΙΝ Η  ΑΙ ΜΑΣ ΑΠΟΚΑΛΥΠΤΕΙ ΤΟ ΠΝΕΥΜΑ ΤΩΝ ΔΗΜΙΟΥΡΓΩΝ ΤΗΣ; ΜΗΠΩΣ ΔΕΝ ΥΠΑΡΧΕΙ ΟΥΔΕΤΕΡΗ ΕΠΙΣΤΗΜΗ;

Δεν υπάρχουν σχόλια: