Η Anthropic Αντιτίθεται στο Αίτημα της Κυβέρνησης των ΗΠΑ να Επιτρέψει στην Τεχνητή της Νοημοσύνη να Σκοτώνει Ανθρώπους Αυτόνομα

Η Anthropic Αντιτίθεται στο Αίτημα της Κυβέρνησης των ΗΠΑ να Επιτρέψει στην Τεχνητή της Νοημοσύνη να Σκοτώνει Ανθρώπους Αυτόνομα

Δεν υπάρχουν ήρωες στον κόσμο της Γενετικής Τεχνητής Νοημοσύνης, κι όμως φαίνεται πως ο διευθύνων σύμβουλος της Anthropic, Ντάριο Αμοντέι, έχει τουλάχιστον κάποια όρια που δεν διασχίζει όσον αφορά τη χρήση της τεχνητής νοημοσύνης της εταιρείας του από τον στρατό. Παρότι το μοντέλο Claude της Anthropic χρησιμοποιείται ήδη ευρέως από το Υπουργείο Πολέμου για ανάλυση πληροφοριών, κυβερνοεπιχειρήσεις και παρόμοιες δραστηριότητες, σύμφωνα με το Reuters (ευχαριστούμε PC Gamer), η αμερικανική κυβέρνηση ασκεί πίεση εδώ και μήνες ώστε να επιτραπεί η χρήση του και για μαζική εσωτερική παρακολούθηση καθώς και για πλήρως αυτόνομα όπλα — δηλαδή, για κατασκοπεία εναντίον Αμερικανών πολιτών και για τη δυνατότητα να «αποφασίζει» να σκοτώνει ανθρώπους χωρίς ανθρώπινη παρέμβαση. Τώρα ο Αμοντέι εξέδωσε ανακοίνωση λέγοντας ότι η εταιρεία του δεν πρόκειται να υποχωρήσει.

Η ανακοίνωση του Αμοντέι ξεκαθαρίζει ότι η Anthropic δεν αντιτίθεται στη χρήση της τεχνητής της νοημοσύνης από τον αμερικανικό στρατό, εξηγώντας ότι «ο Claude αναπτύσσεται εκτενώς στο Υπουργείο Πολέμου και σε άλλες υπηρεσίες εθνικής ασφάλειας για κρίσιμες εφαρμογές, όπως ανάλυση πληροφοριών, μοντελοποίηση και προσομοίωση, επιχειρησιακός σχεδιασμός, κυβερνοεπιχειρήσεις και άλλα». Επίσης καυχιέται ότι απέρριψε συμβόλαια εκατοντάδων εκατομμυρίων δολαρίων από το Κινεζικό Κομμουνιστικό Κόμμα, επειδή θα μπορούσαν να χρησιμοποιηθούν στρατιωτικά εναντίον των ΗΠΑ. Υπάρχει όμως ένα όριο: ενώ ο Αμοντέι λέει ότι «ποτέ δεν εναντιωθήκαμε σε συγκεκριμένες στρατιωτικές επιχειρήσεις ούτε προσπαθήσαμε να περιορίσουμε τη χρήση της τεχνολογίας μας με αυθαίρετο τρόπο», δεν θα επιτρέψει τη χρήση του προϊόντος τους για κατασκοπεία εναντίον Αμερικανών πολιτών ούτε να τεθεί πλήρως υπεύθυνο για οπλικά συστήματα.

Όσο γελοίο κι αν ακούγεται να ακούς έναν διευθύνοντα σύμβουλο να λέει ότι δεν έχει πρόβλημα η παραπλανητική γενετική τεχνητή νοημοσύνη του να κατασκοπεύει αλλοδαπούς πολίτες και να ενσωματώνεται σε μερικώς αυτόνομα όπλα, αλλά μετά να εγείρει ηθικές αντιρρήσεις για μικροαλλαγές, παραμένει γεγονός ότι πρόκειται για μια αποφασιστική στάση απέναντι στην πίεση της αμερικανικής κυβέρνησης — πίεση που προέρχεται τόσο από το Υπουργείο Πολέμου όσο και από το Πεντάγωνο. Η πίεση αυτή απαιτεί την άρση των δικλείδων ασφαλείας της τεχνητής νοημοσύνης, απειλώντας ότι θα αποσύρουν τον Claude από στρατιωτικές επιχειρήσεις αν οι δικλείδες παραμείνουν, άρα θα χαθούν τα συμβόλαια. Ο Αμοντέι λέει ότι τους έχουν πει πως η Anthropic θα χαρακτηριστεί «κίνδυνος στην αλυσίδα εφοδιασμού» αν δεν υποχωρήσουν, κάτι που ισχυρίζεται ότι είναι όρος «που επιφυλάσσεται για εχθρούς των ΗΠΑ και ποτέ δεν εφαρμόστηκε σε αμερικανική εταιρεία», προσθέτοντας ότι η κυβέρνηση ενδέχεται να επικαλεστεί τον Νόμο Περί Αμυντικής Παραγωγής για να επιβάλει την άρση των δικλείδων.

«Ανεξάρτητα», λέει ο Αμοντέι, «αυτές οι απειλές δεν αλλάζουν τη θέση μας: δεν μπορούμε με καθαρή συνείδηση να συμφωνήσουμε με το αίτημά τους».

Ίσως είναι αποκαλυπτικό το ότι ο Αμοντέι αντιλαμβάνεται πλήρως πως μια παραπλανητική τεχνητή νοημοσύνη δεν μπορεί ποτέ να τεθεί σε αυτόνομο έλεγχο οπλικών συστημάτων, τόσο τρομακτικό κι αν είναι να συνειδητοποιεί κανείς πόσο ενσωματωμένα είναι ήδη αυτά τα μοντέλα γλώσσας στον στρατό.

Σε απάντηση, εργαζόμενοι τόσο στη Google όσο και στην OpenAI — δύο από τους βασικότερους ανταγωνιστές της Anthropic — υπέγραψαν ανοιχτή επιστολή υποστηρίζοντας την εταιρεία απέναντι στις απειλές του Υπουργείου Πολέμου, λέγοντας ότι «στεκόμαστε ενωμένοι και συνεχίζουμε να αρνούμαστε τα τρέχοντα αιτήματα του Υπουργείου Πολέμου για άδεια χρήσης των μοντέλων μας για μαζική εσωτερική παρακολούθηση και αυτόνομη δολοφονία ανθρώπων χωρίς ανθρώπινη εποπτεία».

Leave a Reply

Η ηλ. διεύθυνση σας δεν δημοσιεύεται. Τα υποχρεωτικά πεδία σημειώνονται με *