Από την επιστημονική φαντασία στην πραγματικότητα: Οι πραγματικοί κίνδυνοι της Τεχνητής Νοημοσύνης: Οι πραγματικοί κίνδυνοι της Τεχνητής Νοημοσύνης
Η άνοδος της τεχνητής νοημοσύνης αντιπροσωπεύει μια σημαντική τεχνολογική ανακάλυψη που είναι έτοιμη να φέρει επανάσταση στην κοινωνία, όπως έκαναν το Διαδίκτυο, οι προσωπικοί υπολογιστές και τα κινητά τηλέφωνα. Ο αντίκτυπός της είναι διάχυτος, διεισδύοντας σε διάφορες πτυχές της ανθρώπινης ζωής, από την εργασία και την εκπαίδευση έως τις δραστηριότητες αναψυχής. Η ραγδαία πρόοδος των νευρωνικών δικτύων προκαλεί κάποια ανησυχία, γεγονός που μας ωθεί να διερευνήσουμε τους πιθανούς κινδύνους που μπορεί να θέσει η τεχνητή νοημοσύνη στην ανθρωπότητα σε αυτό το άρθρο.
Είναι η τεχνητή νοημοσύνη επικίνδυνη; Ποιος εξέφρασε τις ανησυχίες του;
Στις ταινίες επιστημονικής φαντασίας, η ιδέα μιας ανεξέλεγκτης τεχνητής νοημοσύνης που θέλει να κυριαρχήσει ή να καταστρέψει την ανθρωπότητα είναι ένα δημοφιλές θέμα, όπως φαίνεται σε ταινίες όπως το "Matrix" και ο "Εξολοθρευτής". Με τον ταχύτατο ρυθμό της τεχνολογικής προόδου σήμερα, μπορεί να είναι δύσκολο για τον μέσο άνθρωπο να συμβαδίσει. Η ταχεία πρόοδος της τεχνητής νοημοσύνης αναγκάζει τις κοινωνίες μας να προσαρμοστούν γρήγορα, προκαλώντας φόβους λόγω της πολυπλοκότητας αυτών των τεχνολογιών και του έμφυτου ανθρώπινου φόβου για το άγνωστο.
Δεν είναι μόνο τα συνηθισμένα άτομα που αισθάνονται άγχος για την ΤΝ, αλλά και οι ειδικοί στον τομέα εκφράζουν τις ανησυχίες τους. Για παράδειγμα, ο Geoffrey Hinton, που συχνά αναφέρεται ως "ο νονός της ΤΝ", έχει εκφράσει τις δικές του ανησυχίες:
Αυτά τα πράγματα θα μπορούσαν να γίνουν πιο έξυπνα από εμάς και να αποφασίσουν να αναλάβουν την εξουσία, και πρέπει να ανησυχούμε τώρα για το πώς θα το αποτρέψουμε αυτό.
Πίστευα για πολύ καιρό ότι απέχουμε 30 με 50 χρόνια από αυτό. Οπότε το αποκαλώ αυτό πολύ μακριά από κάτι που έχει μεγαλύτερη γενική νοημοσύνη από έναν άνθρωπο. Τώρα, νομίζω ότι μπορεί να είμαστε πολύ πιο κοντά, ίσως μόνο πέντε χρόνια μακριά από αυτό.
Υπάρχει σοβαρός κίνδυνος να αποκτήσουμε πράγματα πιο έξυπνα από εμάς αρκετά σύντομα και αυτά τα πράγματα να αποκτήσουν κακά κίνητρα και να πάρουν τον έλεγχο.
Στις 22 Μαρτίου 2023, δημοσιεύτηκε μια ανοιχτή επιστολή που ζητούσε να σταματήσει η ανάπτυξη τεχνητής νοημοσύνης ισχυρότερης από την GPT-4 για μια περίοδο έξι μηνών:
Τα σύγχρονα συστήματα τεχνητής νοημοσύνης γίνονται πλέον ανταγωνιστικά προς τον άνθρωπο σε γενικές εργασίες και πρέπει να αναρωτηθούμε: Πρέπει να αφήσουμε τις μηχανές να πλημμυρίσουν τα κανάλια πληροφόρησής μας με προπαγάνδα και αναλήθειες; Θα πρέπει να αυτοματοποιήσουμε όλες τις δουλειές, συμπεριλαμβανομένων και αυτών που μας ικανοποιούν; Θα πρέπει να αναπτύξουμε μη ανθρώπινα μυαλά που μπορεί τελικά να μας ξεπεράσουν, να μας ξεπεράσουν, να μας ξεπεράσουν και να μας αντικαταστήσουν; Θα πρέπει να διακινδυνεύσουμε την απώλεια του ελέγχου του πολιτισμού μας; Τέτοιες αποφάσεις δεν πρέπει να ανατίθενται σε μη εκλεγμένους ηγέτες της τεχνολογίας. Ισχυρά συστήματα τεχνητής νοημοσύνης θα πρέπει να αναπτυχθούν μόνο όταν είμαστε βέβαιοι ότι τα αποτελέσματά τους θα είναι θετικά και οι κίνδυνοι τους θα είναι διαχειρίσιμοι. Αυτή η εμπιστοσύνη πρέπει να είναι καλά αιτιολογημένη και να αυξάνεται με το μέγεθος των πιθανών επιπτώσεων ενός συστήματος.
Η επιστολή υπογράφηκε από 1800 ηγέτες εταιρειών τεχνολογίας, 1500 καθηγητές, ακαδημαϊκούς και ερευνητές στον τομέα της τεχνητής νοημοσύνης:
- Elon Musk, διευθύνων σύμβουλος των SpaceX, Tesla & Twitter
- Steve Wozniak, συνιδρυτής της Apple
- Emad Mostaque, Διευθύνων Σύμβουλος, Stability AI
- Jaan Tallinn, συνιδρυτής του Skype, Κέντρο για τη μελέτη του υπαρξιακού κινδύνου, Ινστιτούτο Future of Life
- Evan Sharp, συνιδρυτής του Pinterest
- Craig Peters, Διευθύνων Σύμβουλος, Getty Images
- Mark Nitzberg, Εκτελεστικός Διευθυντής του Κέντρου για την ανθρώπινη συμβατή τεχνητή νοημοσύνη, UC Berkeley
- Gary Marcus, Πανεπιστήμιο Νέας Υόρκης, ερευνητής ΤΝ, ομότιμος καθηγητής
- Zachary Kenton, DeepMind, ανώτερος ερευνητής
- Ramana Kumar, DeepMind, ερευνητής
- Michael Osborne, Πανεπιστήμιο της Οξφόρδης, καθηγητής μηχανικής μάθησης
- Adam Smith, Πανεπιστήμιο της Βοστώνης, καθηγητής Πληροφορικής, βραβείο Gödel, βραβείο Κανελλάκη
Συνολικά, συγκεντρώθηκαν περισσότερες από 33.000 υπογραφές.
Άλλες σημαντικές προσωπικότητες, όπως ο Sam Altman (CEO, OpenAI), ο Geoffrey Hinton (βραβευμένος με το Turing Award), ο Dario Amodei (CEO, Anthropic) και ο Bill Gates, καθώς και πάνω από 350 στελέχη και ερευνητές της ΤΝ υπέγραψαν την ακόλουθη δήλωση:
Ο μετριασμός του κινδύνου εξαφάνισης από την Τεχνητή Νοημοσύνη θα πρέπει να αποτελέσει παγκόσμια προτεραιότητα μαζί με άλλους κινδύνους κοινωνικής κλίμακας, όπως οι πανδημίες και ο πυρηνικός πόλεμος.
Κίνδυνοι της τεχνητής νοημοσύνης
Το 2018, ένα αυτοκινούμενο αυτοκίνητο της Uber χτύπησε και σκότωσε έναν πεζό.
Το 2022, οι επιστήμονες αναδιαμόρφωσαν ένα σύστημα τεχνητής νοημοσύνης που είχε αρχικά σχεδιαστεί για τη δημιουργία μη τοξικών, θεραπευτικών μορίων για την παραγωγή χημικών πολεμικών παραγόντων. Αλλάζοντας τις ρυθμίσεις του συστήματος ώστε να επιβραβεύει την τοξικότητα αντί να την τιμωρεί, κατάφεραν να δημιουργήσουν γρήγορα 40.000 πιθανά μόρια για χημικό πόλεμο σε μόλις έξι ώρες.
Το 2023, οι ερευνητές έδειξαν πώς το GPT-4 μπορούσε να χειραγωγήσει έναν εργαζόμενο του TaskRabbit ώστε να ολοκληρώσει την επαλήθευση του Captcha. Πιο πρόσφατα, αναφέρθηκε ένα τραγικό περιστατικό κατά το οποίο ένα άτομο αυτοκτόνησε μετά από μια ανησυχητική συζήτηση με ένα chatbot.
Η χρήση συστημάτων ΤΝ, ανεξάρτητα από τον επιδιωκόμενο σκοπό τους, μπορεί να οδηγήσει σε αρνητικές συνέπειες, όπως:
- Απώλεια θέσεων εργασίας λόγω αυτοματισμού
- Deepfakes και παραπληροφόρηση
- Παραβιάσεις της ιδιωτικής ζωής
- Ασαφής νομική ρύθμιση
- Αλγοριθμική μεροληψία που προκαλείται από κακά δεδομένα
- Οικονομικές κρίσεις
- Εγκλήματα στον κυβερνοχώρο
- Αυτοματοποίηση όπλων
- Ανεξέλεγκτη υπερ-νοημοσύνη
Τα συστήματα τεχνητής νοημοσύνης γίνονται όλο και πιο ισχυρά και δεν γνωρίζουμε τα όριά τους. Τα συστήματα αυτά θα μπορούσαν να χρησιμοποιηθούν για κακόβουλους σκοπούς. Ας εξετάσουμε πιο προσεκτικά τους διάφορους κινδύνους.
Απώλειες θέσεων εργασίας λόγω αυτοματοποίησης από την Τεχνητή Νοημοσύνη
Σύμφωνα με έρευνα της Goldman Sachs, η τεχνητή νοημοσύνη μπορεί να επηρεάσει σημαντικά τις αγορές εργασίας παγκοσμίως. Αναλύοντας βάσεις δεδομένων που περιγράφουν λεπτομερώς το περιεχόμενο των καθηκόντων σε πάνω από 900 επαγγέλματα στις ΗΠΑ και 2000 επαγγέλματα στην ευρωπαϊκή βάση δεδομένων ESCO, οι οικονομολόγοι της Goldman Sachs εκτιμούν ότι περίπου τα δύο τρίτα των επαγγελμάτων είναι εκτεθειμένα σε κάποιο βαθμό αυτοματοποίησης από την τεχνητή νοημοσύνη.
Ο κάθετος άξονας δείχνει το μερίδιο του επαγγελματικού φόρτου εργασίας που εκτίθεται στην αυτοματοποίηση από την ΤΝ. Ο οριζόντιος άξονας δείχνει το ποσοστό των επαγγελμάτων.
Οι αλλαγές στις ροές εργασίας που προκαλούνται από αυτές τις εξελίξεις θα μπορούσαν δυνητικά να αυτοματοποιήσουν το ισοδύναμο 300 εκατομμυρίων θέσεων εργασίας πλήρους απασχόλησης. Ωστόσο, δεν θα οδηγήσει όλη αυτή η αυτοματοποιημένη εργασία σε απολύσεις. Πολλές θέσεις εργασίας και κλάδοι είναι μόνο εν μέρει επιρρεπείς στην αυτοματοποίηση, πράγμα που σημαίνει ότι είναι πιο πιθανό να συμπληρωθούν από την ΤΝ παρά να αντικατασταθούν πλήρως.
Η Seo.ai προχωρά αυτή την πρόβλεψη ακόμη περισσότερο, εκτιμώντας ότι περίπου 800 εκατομμύρια θέσεις εργασίας παγκοσμίως θα μπορούσαν να αντικατασταθούν από την τεχνητή νοημοσύνη μέχρι το 2030. Για την προετοιμασία αυτής της επερχόμενης αλλαγής, αναμένεται ότι μέσα στα επόμενα τρία χρόνια, περισσότεροι από 120 εκατομμύρια εργαζόμενοι θα υποβληθούν σε επανεκπαίδευση.
Αν θέλετε να μάθετε ποια επαγγέλματα είναι πιο επιρρεπή στην αυτοματοποίηση και ποια απειλούνται λιγότερο από την αυτοματοποίηση, διαβάστε το άρθρο μας για το θέμα.
Παραπληροφόρηση
Ακόμη και τα πιο προηγμένα μεγάλα γλωσσικά μοντέλα είναι επιρρεπή στο να παράγουν εσφαλμένες ή μη λογικές πληροφορίες. Αυτά τα λάθη (ψευδαισθήσεις) είναι συχνά αποτέλεσμα της εξάρτησης του μοντέλου από τα στατιστικά μοτίβα των δεδομένων στα οποία έχει εκπαιδευτεί και όχι από την πραγματική κατανόηση ή συλλογιστική.
Με άλλα λόγια, τα chatbots μπορούν μερικές φορές να επινοούν γεγονότα. Αυτό έγινε σαφές το 2023, όταν ένας δικηγόρος της Νέας Υόρκης βρέθηκε σε δύσκολη θέση επειδή χρησιμοποίησε το ChatGPT για να διεξάγει νομική έρευνα για μια υπόθεση προσωπικού τραυματισμού. Συνέταξε μια αναφορά 10 σελίδων, αναφερόμενος σε διάφορες προηγούμενες δικαστικές αποφάσεις, οι οποίες αποδείχθηκε ότι ήταν εντελώς κατασκευασμένες από το chatbot. Ως αποτέλεσμα, ο δικηγόρος και ένας συνάδελφός του τιμωρήθηκαν από ομοσπονδιακό δικαστή και τους επιβλήθηκε πρόστιμο 5.000 δολαρίων στον καθένα.
Το 2024, ένας ακόμη δικηγόρος της Νέας Υόρκης τιμωρήθηκε πειθαρχικά επειδή επικαλέστηκε μια ανύπαρκτη υπόθεση που δημιουργήθηκε από τεχνητή νοημοσύνη.
Ένα άλλο παράδειγμα είναι το Stack Overflow, ένας δικτυακός τόπος ερωτήσεων και απαντήσεων που χρησιμοποιείται κυρίως από προγραμματιστές και προγραμματιστές για να θέτουν τεχνικές ερωτήσεις, να ζητούν βοήθεια σε προβλήματα κωδικοποίησης και να μοιράζονται γνώσεις στην κοινότητα του προγραμματισμού.
Ο ιστότοπος αναγκάστηκε να απαγορεύσει κάθε χρήση γεννητικής τεχνητής νοημοσύνης, επειδή το μέσο ποσοστό λήψης σωστών απαντήσεων από διάφορα chatbots ήταν πολύ χαμηλό, παρόλο που οι απαντήσεις έμοιαζαν συνήθως πειστικές.
Κοινωνική χειραγώγηση
Οι πλατφόρμες των μέσων κοινωνικής δικτύωσης κατακλύζονται από τόσο πολύ περιεχόμενο αυτές τις μέρες, που μπορεί να είναι δύσκολο να τα παρακολουθήσετε όλα. Σε αυτό το σημείο έρχεται η αλγοριθμική επιμέλεια. Ουσιαστικά βοηθάει στο να κοσκινίσει όλο το θόρυβο και να παρουσιάσει στους χρήστες το περιεχόμενο που είναι πιο πιθανό να τους ενδιαφέρει με βάση την προηγούμενη συμπεριφορά τους. Ενώ αυτό μπορεί να είναι χρήσιμο στη διαχείριση της ατελείωτης ροής πληροφοριών, σημαίνει επίσης ότι η πλατφόρμα έχει μεγάλο έλεγχο στη διαμόρφωση του τι βλέπουν και αλληλεπιδρούν οι χρήστες.
Ωστόσο, η αλλαγή του τι εμφανίζεται στην ροή ειδήσεων κάποιου μπορεί να επηρεάσει τη διάθεσή του και τον τρόπο με τον οποίο βλέπει τον κόσμο γενικότερα. Τον Ιανουάριο του 2012, οι επιστήμονες δεδομένων του Facebook έδειξαν πώς οι αποφάσεις σχετικά με την επιμέλεια της ροής ειδήσεων θα μπορούσαν να αλλάξουν το επίπεδο ευτυχίας των χρηστών. Τα γεγονότα του Ιανουαρίου του 2021 στις ΗΠΑ στο Καπιτώλιο των ΗΠΑ ανέδειξαν περαιτέρω πώς η κατανάλωση κοινωνικών μέσων ενημέρωσης από κάποιον μπορεί να παίξει ρόλο στη ριζοσπαστικοποίηση.
Επιπλέον, επειδή το εντυπωσιακό υλικό τείνει να κρατάει τους χρήστες γαντζωμένους για μεγαλύτερο χρονικό διάστημα, οι αλγόριθμοι μπορεί να κατευθύνουν ακούσια τους χρήστες προς το προκλητικό και επιβλαβές περιεχόμενο, προκειμένου να αυξήσουν την εμπλοκή. Ακόμη και η πρόταση περιεχομένου με βάση τα ενδιαφέροντα ενός χρήστη μπορεί να είναι προβληματική, καθώς μπορεί να εδραιώσει ακόμη περισσότερο τις πεποιθήσεις του μέσα σε μια "φούσκα φίλτρου" αντί να τον εκθέσει σε διαφορετικές προοπτικές. Αυτό μπορεί τελικά να οδηγήσει σε αυξημένη πόλωση μεταξύ των χρηστών.
Όταν παραδίδουμε την εξουσία λήψης αποφάσεων σε πλατφόρμες, ουσιαστικά τους δίνουμε τον έλεγχο του τι βλέπουμε. Τα μέσα κοινωνικής δικτύωσης, με τους προηγμένους αλγορίθμους τους, υπερέχουν στο στοχευμένο μάρκετινγκ κατανοώντας τις προτιμήσεις και τις σκέψεις μας. Πρόσφατες έρευνες εξετάζουν τον ρόλο της Cambridge Analytica και παρόμοιων εταιρειών στη χρήση δεδομένων από 50 εκατομμύρια χρήστες του Facebook για να επηρεάσουν σημαντικά πολιτικά γεγονότα, όπως οι προεδρικές εκλογές του 2016 στις ΗΠΑ και το δημοψήφισμα για το Brexit στο Ηνωμένο Βασίλειο. Εάν οι ισχυρισμοί αυτοί αποδειχθούν αληθείς, αναδεικνύεται η δυνατότητα της τεχνητής νοημοσύνης να χειραγωγεί την κοινωνία. Ένα πιο πρόσφατο παράδειγμα είναι ο Ferdinand Marcos, Jr. που χρησιμοποίησε έναν στρατό τρολ του TikTok για να επηρεάσει τους νεότερους ψηφοφόρους στις προεδρικές εκλογές του 2022 στις Φιλιππίνες. Αξιοποιώντας τα προσωπικά δεδομένα και τους αλγορίθμους, η ΤΝ μπορεί να στοχεύσει αποτελεσματικά άτομα με συγκεκριμένη προπαγάνδα, είτε αυτή βασίζεται σε γεγονότα είτε σε φαντασία.
Deepfakes
Τα deepfakes αναφέρονται σε ψηφιακά τροποποιημένα βίντεο ή εικόνες που απεικονίζουν ρεαλιστικά ένα άτομο να λέει ή να κάνει κάτι που στην πραγματικότητα δεν είπε ή δεν έκανε ποτέ. Αυτή η τεχνολογία χρησιμοποιεί αλγορίθμους βαθιάς μάθησης για να χειραγωγήσει υπάρχον υλικό βίντεο και ήχου για να δημιουργήσει πειστικό ψεύτικο περιεχόμενο.
"Κανείς δεν ξέρει τι είναι πραγματικό και τι όχι", δήλωσε ο μελλοντολόγος Martin Ford. "Έτσι, οδηγεί πραγματικά σε μια κατάσταση όπου κυριολεκτικά δεν μπορείς να πιστέψεις τα ίδια σου τα μάτια και τα αυτιά- δεν μπορείς να βασιστείς σε αυτό που, ιστορικά, θεωρούσαμε ως τα καλύτερα δυνατά στοιχεία... Αυτό θα είναι ένα τεράστιο ζήτημα".
Ένας από τους κύριους λόγους για τους οποίους τα deepfakes θεωρούνται επικίνδυνα είναι η δυνατότητά τους να χρησιμοποιηθούν για κακόβουλους σκοπούς. Για παράδειγμα, τα deepfakes θα μπορούσαν να χρησιμοποιηθούν για τη δημιουργία ψεύτικων αποδεικτικών βίντεο σε νομικές υποθέσεις, να ενοχοποιήσουν άτομα για εγκλήματα που δεν διέπραξαν ή ακόμη και να υποδυθούν ένα πολιτικό πρόσωπο για τη διάδοση ψευδών πληροφοριών. Με τη χειραγώγηση των μέσων ενημέρωσης με αυτόν τον τρόπο, τα deepfakes έχουν τη δύναμη να διαταράξουν την εμπιστοσύνη στις παραδοσιακές πηγές πληροφόρησης και να σπείρουν σύγχυση και διχόνοια στην κοινωνία.
Σύμφωνα με την DeepMedia, μια εταιρεία που ασχολείται με εργαλεία για την ανίχνευση συνθετικών μέσων, 500.000 deepfakes δημοσιεύτηκαν σε ιστότοπους κοινωνικής δικτύωσης παγκοσμίως το 2023. Πρόκειται για 3 φορές περισσότερα deepfakes βίντεο και 8 φορές περισσότερα deepfakes φωνής σε σύγκριση με το 2022.
Ορισμένα πρόσφατα παραδείγματα κακόβουλης χρήσης των deepfakes περιλαμβάνουν τη δημιουργία ψεύτικης πορνογραφίας διασημοτήτων, όπου πρόσωπα διασημοτήτων εισάγονται ψηφιακά σε πορνογραφικά βίντεο χωρίς τη συγκατάθεσή τους. Επιπλέον, έχουν υπάρξει περιπτώσεις χρήσης βίντεο deepfake για τη χειραγώγηση των τιμών των μετοχών, τη δυσφήμιση ατόμων ή τη διάδοση πολιτικής προπαγάνδας. Τα παραδείγματα αυτά αναδεικνύουν τη δυνατότητα χρήσης των deepfakes για επιβλαβείς και παραπλανητικούς σκοπούς.
Έγκλημα στον κυβερνοχώρο
Το έγκλημα στον κυβερνοχώρο περιλαμβάνει ένα ευρύ φάσμα εγκληματικών δραστηριοτήτων που χρησιμοποιούν ψηφιακές συσκευές και δίκτυα. Τα εγκλήματα αυτά περιλαμβάνουν τη χρήση της τεχνολογίας για τη διάπραξη απάτης, κλοπής ταυτότητας, παραβίασης δεδομένων, ιών υπολογιστών, απάτης και άλλων κακόβουλων πράξεων. Οι εγκληματίες του κυβερνοχώρου εκμεταλλεύονται τις αδυναμίες των συστημάτων και των δικτύων υπολογιστών για να αποκτήσουν μη εξουσιοδοτημένη πρόσβαση, να κλέψουν ευαίσθητες πληροφορίες, να διαταράξουν τις υπηρεσίες και να προκαλέσουν ζημιά σε άτομα, οργανισμούς και κυβερνήσεις.
Οι επιτιθέμενοι χρησιμοποιούν όλο και περισσότερο τα άμεσα διαθέσιμα εργαλεία τεχνητής νοημοσύνης όπως τα ChatGPT, Dall-E και Midjourney για αυτοματοποιημένες επιθέσεις phishing, επιθέσεις πλαστοπροσωπίας, επιθέσεις κοινωνικής μηχανικής και ψεύτικα chatbots υποστήριξης πελατών.
Σύμφωνα με την έκθεση SlashNext State of Phishing Report 2023, υπήρξε μια αύξηση 1265% στα κακόβουλα μηνύματα ηλεκτρονικού ψαρέματος, η οποία αποδίδεται σε μεγάλο βαθμό στη χρήση εργαλείων τεχνητής νοημοσύνης για στοχευμένες επιθέσεις.
Οι επιθέσεις πλαστοπροσωπίας γίνονται όλο και πιο συχνές. Οι απατεώνες χρησιμοποιούν το ChatGPT και άλλα εργαλεία για να υποδυθούν πραγματικά άτομα και οργανισμούς, επιδιδόμενοι σε κλοπή ταυτότητας και απάτη. Παρόμοια με τις επιθέσεις phishing, χρησιμοποιούν chatbots για την αποστολή φωνητικών μηνυμάτων που παριστάνουν έναν έμπιστο φίλο, συνάδελφο ή μέλος της οικογένειας, προκειμένου να αποκτήσουν προσωπικές πληροφορίες ή πρόσβαση σε λογαριασμούς. Σε μια αξιοσημείωτη περίπτωση από τον Μάρτιο του 2019, ο επικεφαλής μιας βρετανικής θυγατρικής μιας γερμανικής εταιρείας ενέργειας έπεσε θύμα ενός απατεώνα που μιμήθηκε τη φωνή του διευθύνοντος συμβούλου, με αποτέλεσμα να μεταφερθούν σχεδόν 200.000 λίρες Αγγλίας (243.000 δολάρια) σε έναν ουγγρικό τραπεζικό λογαριασμό. Τα κεφάλαια μεταφέρθηκαν αργότερα στο Μεξικό και διασκορπίστηκαν σε πολλές τοποθεσίες. Οι ερευνητές δεν έχουν εντοπίσει κανέναν ύποπτο.
Το 2023, το Κέντρο Καταγγελιών για Εγκλήματα στο Διαδίκτυο (IC3) έλαβε έναν πρωτοφανή αριθμό καταγγελιών από το αμερικανικό κοινό: υποβλήθηκαν συνολικά 880.418 καταγγελίες, με πιθανές απώλειες που ξεπέρασαν τα 12,5 δισεκατομμύρια δολάρια. Αυτό σηματοδοτεί σχεδόν 10% αύξηση του αριθμού των καταγγελιών που ελήφθησαν και 22% αύξηση των ζημιών σε σύγκριση με το 2022. Παρά αυτά τα συγκλονιστικά στοιχεία, είναι σημαντικό να σημειωθεί ότι πιθανότατα υποτιμούν την πραγματική έκταση του εγκλήματος στον κυβερνοχώρο το 2023. Για παράδειγμα, όταν το FBI εξάρθρωσε πρόσφατα την ομάδα Hive ransomware, ανακαλύφθηκε ότι μόνο το 20% περίπου των θυμάτων της Hive είχαν καταγγείλει το έγκλημα στις διωκτικές αρχές.
Εισβολή στην ιδιωτική ζωή
Ένα χαρακτηριστικό παράδειγμα κοινωνικής επιτήρησης είναι η χρήση από την Κίνα της τεχνολογίας αναγνώρισης προσώπου σε γραφεία, σχολεία και άλλους χώρους. Αυτή η τεχνολογία όχι μόνο επιτρέπει την παρακολούθηση των κινήσεων των ατόμων, αλλά και δυνητικά επιτρέπει στην κυβέρνηση να συλλέγει εκτεταμένα δεδομένα για την παρακολούθηση των ενεργειών, των δραστηριοτήτων, των σχέσεων και των ιδεολογικών πεποιθήσεων τους.
Τα άτομα μπορούν πλέον να παρακολουθούνται τόσο στο διαδίκτυο όσο και στην καθημερινή τους ζωή. Κάθε πολίτης αξιολογείται με βάση τις συμπεριφορές του, όπως το περπάτημα σε αδιαφανή σημεία, το κάπνισμα σε χώρους μη καπνιζόντων και ο χρόνος που αφιερώνεται σε βιντεοπαιχνίδια. Φανταστείτε ότι κάθε ενέργεια επηρεάζει την προσωπική σας βαθμολογία στο σύστημα κοινωνικής πίστωσης.
Όταν ο Μεγάλος Αδελφός σας παρακολουθεί και στη συνέχεια λαμβάνει αποφάσεις με βάση αυτές τις πληροφορίες, δεν είναι μόνο μια παραβίαση της ιδιωτικής ζωής, αλλά μπορεί γρήγορα να μετατραπεί σε κοινωνική καταπίεση.
Οικονομικές κρίσεις
Στον σημερινό χρηματοπιστωτικό κόσμο, η χρήση αλγορίθμων μηχανικής μάθησης είναι ευρέως διαδεδομένη, με τα hedge funds και τις επενδυτικές εταιρείες να βασίζονται σε μεγάλο βαθμό σε αυτά τα μοντέλα για την ανάλυση μετοχών και περιουσιακών στοιχείων. Αυτοί οι αλγόριθμοι τροφοδοτούνται συνεχώς με τεράστιες ποσότητες παραδοσιακών και εναλλακτικών δεδομένων για τη λήψη αποφάσεων διαπραγμάτευσης. Ωστόσο, υπάρχει αυξανόμενη ανησυχία ότι οι αλγοριθμικές συναλλαγές θα μπορούσαν ενδεχομένως να προκαλέσουν την επόμενη μεγάλη χρηματοπιστωτική κρίση.
2010 Flash Crash. 600 δισεκατομμύρια δολάρια εξατμίστηκαν σε 20 λεπτά
Ένα αξιοσημείωτο παράδειγμα των κινδύνων των ελαττωματικών αλγορίθμων είναι το Flash Crash του 2010, όπου η χρηματιστηριακή αγορά έπεσε ξαφνικά σχεδόν 1.000 μονάδες μέσα σε λίγα λεπτά πριν ανακάμψει γρήγορα. Παρόλο που οι δείκτες της αγοράς κατάφεραν να ανακάμψουν εν μέρει την ίδια ημέρα, το Flash Crash διέγραψε σχεδόν 1 τρισεκατομμύριο δολάρια σε αξία αγοράς. Αυτή η ξαφνική και δραστική πτώση των τιμών αποδόθηκε σε μεγάλο βαθμό στους αυτοματοποιημένους αλγόριθμους συναλλαγών που αντιδρούσαν στις συνθήκες της αγοράς με απρόβλεπτο τρόπο. Μια άλλη περίπτωση ήταν το Flash Crash της Knight Capital το 2012, όπου ένας δυσλειτουργικός αλγόριθμος προκάλεσε την απώλεια 440 εκατομμυρίων δολαρίων από την εταιρεία μέσα σε μόλις 45 λεπτά, οδηγώντας τελικά στην καταστροφή της.
Αυτά τα δυστυχήματα λειτουργούν ως απογοητευτικές υπενθυμίσεις των δυνητικών κινδύνων που ενέχουν οι αλγοριθμικές συναλλαγές στις χρηματοπιστωτικές αγορές. Όταν οι αλγόριθμοι δεν έχουν σχεδιαστεί, δοκιμαστεί ή παρακολουθείται σωστά, μπορεί να έχουν καταστροφικές συνέπειες. Είναι ζωτικής σημασίας για τα χρηματοπιστωτικά ιδρύματα να εξετάζουν διεξοδικά τους αλγορίθμους τους και να διασφαλίζουν την εφαρμογή κατάλληλων πρακτικών διαχείρισης κινδύνου, ώστε να αποτρέψουν παρόμοιες καταστροφές στο μέλλον.
Δολοφονικά ρομπότ
Τα αυτόνομα όπλα που λειτουργούν με τεχνητή νοημοσύνη (ΤΝ) αποτελούν εδώ και καιρό θέμα συζήτησης και ανησυχίας μεταξύ κυβερνήσεων, στρατιωτικών αξιωματούχων και υπερασπιστών των ανθρωπίνων δικαιωμάτων. Τα συστήματα αυτά, γνωστά και ως "ρομπότ δολοφόνοι" ή "θανατηφόρα αυτόνομα όπλα", έχουν την ικανότητα να επιλέγουν και να προσβάλλουν στόχους ανεξάρτητα χωρίς ανθρώπινη παρέμβαση. Αυτό εγείρει σημαντικές ηθικές, νομικές ανησυχίες και ανησυχίες για την ασφάλεια, καθώς τα όπλα αυτά έχουν τη δυνατότητα να λαμβάνουν αποφάσεις για τη ζωή ή το θάνατο χωρίς ανθρώπινη επίβλεψη.
Η ανάπτυξη αυτόνομων όπλων έχει επιταχυνθεί τα τελευταία χρόνια, καθώς η τεχνολογία τεχνητής νοημοσύνης έχει γίνει πιο προηγμένη και διαδεδομένη. Τα όπλα αυτά μπορεί να κυμαίνονται από μη επανδρωμένα μη επανδρωμένα αεροσκάφη έως επίγεια συστήματα που μπορούν να εντοπίζουν και να επιτίθενται αυτόνομα σε στόχους. Οι υποστηρικτές των αυτόνομων όπλων υποστηρίζουν ότι μπορούν να μειώσουν τις ανθρώπινες απώλειες σε ζώνες συγκρούσεων και να παρέχουν πιο ακριβείς και αποτελεσματικές στρατιωτικές επιχειρήσεις. Ωστόσο, οι επικριτές υποστηρίζουν ότι τα συστήματα αυτά εγείρουν σοβαρά ηθικά ζητήματα και μπορεί να έχουν απρόβλεπτες συνέπειες, όπως κλιμάκωση των συγκρούσεων και απώλειες αμάχων.
Ο κίνδυνος που εγκυμονούν τα αυτόνομα όπλα που λειτουργούν με τεχνητή νοημοσύνη είναι πολύ πραγματικός. Τα συστήματα αυτά έχουν τη δυνατότητα να παραβιαστούν ή να παρουσιάσουν δυσλειτουργία, οδηγώντας σε απρόβλεπτες συνέπειες και απώλεια ελέγχου. Επιπλέον, η έλλειψη ανθρώπινης εποπτείας στη λήψη αποφάσεων εγείρει ανησυχίες σχετικά με τη λογοδοσία και το ενδεχόμενο παραβιάσεων του διεθνούς ανθρωπιστικού δικαίου.
Το 2020, περισσότερες από 30 χώρες ζήτησαν την απαγόρευση των θανατηφόρων αυτόνομων όπλων, επικαλούμενες ανησυχίες σχετικά με το ενδεχόμενο οι μηχανές να λαμβάνουν αποφάσεις ζωής ή θανάτου. Παρά τις ανησυχίες αυτές, η ανάπτυξη και η ανάπτυξη αυτόνομων όπλων που λειτουργούν με τεχνητή νοημοσύνη συνεχίζουν να εξελίσσονται. Χώρες όπως οι Ηνωμένες Πολιτείες, η Ρωσία, η Κίνα και το Ισραήλ είναι γνωστό ότι επενδύουν σημαντικά σε αυτές τις τεχνολογίες. Στις ΗΠΑ, το Υπουργείο Άμυνας αναπτύσσει αυτόνομα οπλικά συστήματα, συμπεριλαμβανομένων ημιαυτόνομων μη επανδρωμένων αεροσκαφών και μη επανδρωμένων οχημάτων εδάφους.
Ανεξέλεγκτη Υπερ-νοημοσύνη
Η τεχνητή νοημοσύνη ξεπερνά τον ανθρώπινο εγκέφαλο με διάφορους τρόπους, συμπεριλαμβανομένης της ταχύτητας υπολογισμού, της ταχύτητας εσωτερικής επικοινωνίας, της επεκτασιμότητας, της χωρητικότητας της μνήμης, της αξιοπιστίας, της δυνατότητας αντιγραφής, της δυνατότητας επεξεργασίας, του διαμοιρασμού της μνήμης και των δυνατοτήτων μάθησης:
- Η τεχνητή νοημοσύνη λειτουργεί δυνητικά σε πολλαπλάσια GHz σε σύγκριση με το όριο των 200 Hz των βιολογικών νευρώνων.
- Οι άξονες μεταδίδουν σήματα με ταχύτητα 120 m/s, ενώ οι υπολογιστές το κάνουν με την ταχύτητα του ηλεκτρισμού ή του φωτός.
- Η τεχνητή νοημοσύνη μπορεί εύκολα να κλιμακωθεί με την προσθήκη περισσότερου υλικού, σε αντίθεση με την ανθρώπινη νοημοσύνη που περιορίζεται από το μέγεθος του εγκεφάλου και την αποτελεσματικότητα της κοινωνικής επικοινωνίας.
- Η μνήμη εργασίας των ανθρώπων είναι περιορισμένη σε σύγκριση με την εκτεταμένη ικανότητα μνήμης της ΤΝ.
- Η αξιοπιστία των τρανζίστορ στην ΤΝ ξεπερνά αυτή των βιολογικών νευρώνων, επιτρέποντας μεγαλύτερη ακρίβεια και λιγότερο πλεονασμό.
- Τα μοντέλα ΤΝ μπορούν εύκολα να αντιγραφούν, να τροποποιηθούν και να μάθουν από άλλες εμπειρίες ΤΝ πιο αποτελεσματικά από ό,τι οι άνθρωποι.
Μια μέρα η ΤΝ μπορεί να φτάσει σε επίπεδο νοημοσύνης που θα ξεπερνά κατά πολύ αυτό των ανθρώπων, οδηγώντας σε αυτό που είναι γνωστό ως έκρηξη νοημοσύνης.
Αυτή η ιδέα της αναδρομικής αυτοβελτίωσης, όπου η τεχνητή νοημοσύνη βελτιώνεται συνεχώς με εκθετικό ρυθμό, έχει προκαλέσει ανησυχίες σχετικά με τις πιθανές συνέπειες της δημιουργίας μιας υπερ-ευφυούς οντότητας. Φανταστείτε ένα σενάριο όπου η τεχνητή νοημοσύνη φτάνει σε ένα επίπεδο νοημοσύνης που της επιτρέπει να ξεπερνάει τους ανθρώπους και να τους ξεπερνάει με κάθε πιθανό τρόπο. Αυτή η υπερ-νοημοσύνη θα μπορούσε δυνητικά να έχει τη δύναμη να λαμβάνει αποφάσεις που επηρεάζουν σε μεγάλο βαθμό την κοινωνία και τον τρόπο ζωής μας. Ακριβώς όπως οι άνθρωποι κρατάμε σήμερα τη μοίρα πολλών ειδών στα χέρια μας, η μοίρα της ανθρωπότητας μπορεί μια μέρα να βρίσκεται στα χέρια μιας υπερνοητικής ΤΝ.
Υπερβολική εμπιστοσύνη στην ΤΝ και νομική ευθύνη
Η υπερβολική εξάρτηση από την τεχνολογία ΤΝ θα μπορούσε να οδηγήσει σε μείωση της ανθρώπινης επιρροής και λειτουργίας σε ορισμένους τομείς της κοινωνίας. Για παράδειγμα, η χρήση της ΤΝ στην υγειονομική περίθαλψη μπορεί να οδηγήσει σε μείωση της ανθρώπινης ενσυναίσθησης και λογικής. Επιπλέον, η χρήση της γενετικής ΤΝ για δημιουργικές αναζητήσεις θα μπορούσε να καταπνίξει την ανθρώπινη δημιουργικότητα και τη συναισθηματική έκφραση. Η υπερβολική αλληλεπίδραση με συστήματα ΤΝ θα μπορούσε επίσης να οδηγήσει σε μείωση της επικοινωνίας με τους συνομηλίκους και των κοινωνικών δεξιοτήτων. Ενώ η ΤΝ μπορεί να είναι επωφελής για την αυτοματοποίηση εργασιών, υπάρχουν ανησυχίες σχετικά με τον αντίκτυπό της στη συνολική ανθρώπινη νοημοσύνη, τις ικανότητες και την αίσθηση της κοινότητας.
Επιπλέον, υπάρχουν πιθανοί κίνδυνοι που θα μπορούσαν να οδηγήσουν σε σωματική βλάβη των ανθρώπων. Για παράδειγμα, εάν οι εταιρείες βασίζονται αποκλειστικά στις προβλέψεις της ΤΝ για τα χρονοδιαγράμματα συντήρησης χωρίς άλλη επαλήθευση, αυτό θα μπορούσε να οδηγήσει σε δυσλειτουργίες μηχανημάτων που βλάπτουν τους εργαζόμενους. Στην υγειονομική περίθαλψη, τα μοντέλα ΤΝ θα μπορούσαν να οδηγήσουν σε λανθασμένες διαγνώσεις.
Εκτός από τη φυσική βλάβη, υπάρχουν και μη φυσικοί τρόποι με τους οποίους η ΤΝ μπορεί να θέσει σε κίνδυνο τον άνθρωπο, εάν δεν ρυθμιστεί κατάλληλα. Αυτό περιλαμβάνει ζητήματα ψηφιακής ασφάλειας, όπως η δυσφήμιση ή η συκοφαντική δυσφήμιση, οικονομικής ασφάλειας, όπως η κατάχρηση της ΤΝ σε οικονομικές συστάσεις ή πιστωτικούς ελέγχους, και ζητήματα ισότητας που σχετίζονται με προκαταλήψεις στην ΤΝ που οδηγούν σε άδικες απορρίψεις ή αποδοχές σε διάφορα προγράμματα.
Και, όταν κάτι πάει στραβά, ποιος θα πρέπει να είναι υπεύθυνος; Είναι η ίδια η τεχνητή νοημοσύνη, ο προγραμματιστής που τη δημιούργησε, η εταιρεία που την έθεσε σε χρήση ή ο χειριστής, αν εμπλέκεται άνθρωπος;
* * *
Συμπερασματικά, ενώ η τεχνητή νοημοσύνη ενέχει πολλούς κινδύνους και απειλές, έχει επίσης τη δυνατότητα να ωφελήσει σημαντικά την κοινωνία και να βελτιώσει τη ζωή μας. Είναι σημαντικό να αναγνωρίσουμε ότι τα καλά συχνά υπερτερούν των κακών όταν πρόκειται για την τεχνολογία τεχνητής νοημοσύνης. Στο επόμενο άρθρο μας, θα συζητήσουμε στρατηγικές για τον μετριασμό των κινδύνων που σχετίζονται με την τεχνητή νοημοσύνη, διασφαλίζοντας ότι μπορούμε να αξιοποιήσουμε πλήρως τις δυνατότητές της για θετικές αλλαγές.