Η Τεχνητή Νοημοσύνη και οι προκλήσεις για τους εργαζόμενους και τα κινήματα

Η τεχνητή νοημοσύνη αποτελεί ένα θέμα το οποίο απασχολεί πλέον πολύ έντονα το δημόσιο διάλογο με αφορμή τη δημιουργία εργαλείων όπως το chatGPT της openAI ή το Bard της Google αλλά και άλλων εργαλείων όπως το DALLE το οποίο μπορεί να παράξει μια εικόνα από μια λεκτική περιγραφή που θα του δώσει ο χρήστης. Η τεχνητή νοημοσύνη ωστόσο, έχει εισβάλει στη ζωή μας εδώ και αρκετό καιρό με διάφορες μορφές. Παραδείγματος χάριν τα σύγχρονα κινητά τα οποία είναι πλέον ικανά να τραβήξουν πολύ υψηλής ποιότητας φωτογραφίες, δεν έφτασαν σε αυτό το επίπεδο τόσο με τη βελτίωση των αισθητήρων και των καμερών τους, όσο με τη χρήση αλγορίθμων τεχνητής νοημοσύνης για τη βελτίωση των φωτογραφιών που τραβάνε.

Δεδομένου ότι κατά πάσα πιθανότητα η ζωή μας τα επόμενα χρόνια θα επηρεαστεί έντονα από την τεχνητή νοημοσύνη, η συζήτηση αυτή πρέπει να γίνει όχι τόσο για να δοθούν σαφείς απαντήσεις όσο για να ανοιχτούν προβληματισμοί.

Τι είναι Τεχνητή Νοημοσύνη;

Η αλήθεια είναι πως το ερώτημα είναι πιο δύσκολο να απαντηθεί από ότι ίσως φαντάζει, διότι δεν υπάρχει σαφής ορισμός του τι είναι τεχνητή νοημοσύνη. Υπάρχουν διάφοροι ορισμοί και ένας εκ των πιο ευφάνταστων είναι ότι «η τεχνητή νοημοσύνη είναι η επιστήμη που μελετά το πώς να κάνεις τις μηχανές να κάνουν ό,τι κάνουν στις ταινίες». Ένας άλλος ορισμός (του Patrick Winston) είναι ότι «τεχνητή νοημοσύνη είναι η μελέτη των υπολογισμών που κάνουν δυνατή την αντίληψη, τη λογική σκέψη και τη δράση».

Πιο περιγραφικά δηλαδή, θα μπορούσαμε να πούμε ότι τεχνητή νοημοσύνη είναι η μελέτη του πώς να κάνουμε τις μηχανές να κάνουν πράγματα που συνήθως τα κάνουν οι άνθρωποι. Δηλαδή να παίζουν σύνθετα παιχνίδια, να αναγνωρίζουν αντικείμενα, να δομούν λόγο και επιχειρήματα, να παίρνουν αποφάσεις.

Πρόκειται για έναν κλάδο της επιστήμης των υπολογιστών που μελετάται από τον προηγούμενο αιώνα. Κατά τον 20ο αιώνα υπήρχαν δύο βασικές σχολές σε σχέση με την τεχνητή νοημοσύνη. Η κυρίαρχη σχολή αδιαφορούσε για το πώς λειτουργεί ο ανθρώπινος εγκέφαλος και θεωρούσε ότι μπορεί να παράξει τεχνητή νοημοσύνη μέσω άλλων τεχνικών. Η δεύτερη σχολή, η οποία ήταν για πολλά χρόνια μειοψηφούσα, πίστευε ότι το κλειδί στην τεχνητή νοημοσύνη βρίσκεται στη μελέτη του ανθρώπινου εγκεφάλου και στην προσπάθεια εξομοίωσης της λειτουργίας του.

Αυτή η σχολή εφηύρε τα λεγόμενα τεχνητά νευρωνικά δίκτυα, τα οποία αποτελούν τη βάση όλων των μεγάλων επιτευγμάτων της τεχνητής νοημοσύνης σήμερα. Τα τεχνητά νευρωνικά δίκτυα μελετώνται από τη δεκαετία του 40 μετά τον Β’ Παγκόσμιο Πόλεμο και το μεγαλύτερο μέρος της θεωρίας πίσω από αυτά έχει παραχθεί πριν από 30 – 40 χρόνια.

Ωστόσο, τότε δεν παρήγαγαν καθόλου καλά αποτελέσματα. Αυτό που άλλαξε στον 21ο αιώνα και έκανε τα τεχνητά νευρωνικά δίκτυα να κυριαρχήσουν, δεν είναι τόσο οι εξελίξεις στη θεωρία, όσο η τρομακτική αύξηση στην υπολογιστική ισχύ και στον όγκο των δεδομένων πάνω στα οποία αυτά τα δίκτυα εκπαιδεύονται. Παρατηρήθηκε λοιπόν ότι με πολύ περισσότερα δεδομένα και με την ανάλογη υπολογιστική ισχύ για να τα επεξεργαστεί κανείς, μπορούν να παραχθούν πολύ καλά αποτελέσματα με ένα τεχνητό νευρωνικό δίκτυο.

Πώς λειτουργεί ένα Τεχνητό Νευρωνικό Δίκτυο;

Ένα Τεχνητό Νευρωνικό Δίκτυο είναι ένα απλουστευμένο μαθηματικό μοντέλο που εξομοιώνει τον ανθρώπινο εγκέφαλο. Αξίζει λοιπόν να δούμε σύντομα πώς μαθαίνει ο ανθρώπινος εγκέφαλος.

Ο εγκέφαλος αποτελείται από νευρώνες που συνδέονται μεταξύ τους μέσω συνάψεων. Από τη στιγμή που ένας άνθρωπος αρχίζει να μαθαίνει για τον κόσμο γύρω του, αυτό που κάνει είναι ότι προσαρμόζει τις συνάψεις μεταξύ των νευρώνων του εγκεφάλου του και άλλες γίνονται πιο ισχυρές, άλλες πιο ασθενείς, ενώ άλλες καταστρέφονται. Η γνώση αποθηκεύεται στις συνάψεις του ανθρώπινου εγκεφάλου.

Ένα Τεχνητό Νευρωνικό Δίκτυο αποτελείται από τεχνητούς νευρώνες συνδεδεμένους μεταξύ τους. Αντίστοιχα με τον ανθρώπινο νευρώνα, ο τεχνητός νευρώνας δέχεται ορισμένες εισόδους στις οποίες δίνει διαφορετική βαρύτητα, τις προσθέτει και βάσει του αθροίσματος παράγει μια έξοδο. Τι σημαίνει δίνει διαφορετική βαρύτητα; Σημαίνει ότι πολλαπλασιάζει κάθε είσοδο με έναν αριθμό που ονομάζεται βάρος. Η εκπαίδευση ενός νευρώνα γίνεται ως εξής: του δίνεται μια είσοδος, λαμβάνεται η έξοδος που παρήχθη και υπολογίζεται πόσο αυτή αποκλίνει από την επιθυμητή έξοδο. Βάσει αυτής της απόκλισης, που ονομάζεται σφάλμα, προσαρμόζονται οι τιμές των βαρών ώστε να προσεγγιστεί καλύτερα η επιθυμητή έξοδος. Όπως με τις συνάψεις στον ανθρώπινο εγκέφαλο, έτσι και με τα βάρη στις συνδέσεις μεταξύ των τεχνητών νευρώνων, η γνώση αποθηκεύεται πάνω σε αυτά.

Ένα τεχνητό νευρωνικό δίκτυο καταφέρνει να ανακαλύπτει συσχετίσεις μεταξύ των δεδομένων που του δίνονται στην είσοδο. Αυτές οι συσχετίσεις αποθηκεύονται στις συνδέσεις μεταξύ των νευρώνων και ονομάζονται χαρακτηριστικά ενώ συγκροτούν αυτό που ονομάζεται χώρος χαρακτηριστικών. Όσο αυξάνεται η πολυπλοκότητα ενός τεχνητού νευρωνικού δικτύου, τόσο αυξάνεται και ο αριθμός των χαρακτηριστικών που μπορεί να εντοπίσει. Όταν ένα τεχνητό νευρωνικό δίκτυο έχει εκπαιδευτεί σωστά, μπορεί να εντοπίσει τα χαρακτηριστικά της εισόδου που δέχεται και βάσει αυτών να παράξει τη αντίστοιχη επιθυμητή έξοδο.

Επιπλέον, έχει την ικανότητα να γενικεύει, δηλαδή να μην αναγνωρίζει μόνο τα δεδομένα πάνω στα οποία εκπαιδεύτηκε αλλά και καινούργια δεδομένα που δεν έχει ξαναδεί. Αν για παράδειγμα ένα νευρωνικό δίκτυο έχει εκπαιδευτεί να αναγνωρίζει αν το ζώο σε μια φωτογραφία είναι σκύλος ή γάτα και του δοθεί η φωτογραφία ενός σκύλου που δεν έχει ξαναδεί, αυτό θα μπορέσει να αναγνωρίσει ότι πρόκειται για σκύλο, ακριβώς γιατί θα μπορέσει να εντοπίσει τα χαρακτηριστικά εκείνα που αποτελούν την εικόνα ενός σκύλου.

Μία κατηγορία τεχνητών νευρωνικών δικτύων η οποία αναπτύχθηκε στην Google το 2017 είναι τα λεγόμενα transformers.Σε αυτή την κατηγορία ανήκουν και τα δίκτυα GPT το οποίο σημαίνει Generative Pretrained Transformer. Φυσικά εφαρμογή του GPT αποτελεί και το chatGPT.

Τα όρια της Τεχνητής Νοημοσύνης

Με μια πρώτη ματιά είναι λογικό αυτές οι φοβερές εφαρμογές της τεχνητής νοημοσύνης που έχουν την ικανότητα να γράφουν ποιήματα, να παράγουν εξαιρετικό και δομημένο λόγο σε άπειρες γλώσσες, να δημιουργούν φωτογραφίες αλλά και βίντεο από λεκτικές περιγραφές και γενικώς να παρουσιάζουν μια φαινομενική δημιουργικότητα και μια κάποιου είδους φαντασία, έχουν δημιουργήσει αρκετά ερωτήματα σε σχέση με το πόσο έξυπνη είναι η τεχνητή νοημοσύνη και πού μπορεί να φτάσει αυτή η εξυπνάδα της.

Και πάλι εδώ υπάρχουν δύο βασικές προσεγγίσεις στο ζήτημα. Η μία θεωρεί ότι ακριβώς επειδή τα τεχνητά νευρωνικά δίκτυα μοιάζουν αρκετά και βασίζονται στο μοντέλο των ανθρώπινων νευρώνων, η τεχνητή νοημοσύνη μπορεί να φτάσει στο επίπεδο της ανθρώπινης ευφυίας και είναι κυρίως θέμα πιο πολύπλοκων αρχιτεκτονικών, υπολογιστικής ισχύος και περισσότερων δεδομένων.

Από την άλλη, μια μερίδα επιστημόνων μεταξύ των οποίων και ο επιστήμονας που θεωρείται ο πατέρας της τεχνητής νοημοσύνης ο Τζέφρι Χίντον (Geoffry Hinton), θεωρούν ότι δεν μοιάζουν τόσο πολύ με τον ανθρώπινο εγκέφαλο.

Αυτή η άποψη βασίζεται κυρίως στο ότι ο τρόπος με τον οποίο μαθαίνει η τεχνητή νοημοσύνη διαφέρει αρκετά από αυτόν με τον οποίο μαθαίνει ένας άνθρωπος. Αφενός επειδή ο εγκέφαλός μας μαθαίνει με πολύ λιγότερα δεδομένα και αφετέρου επειδή ο εγκέφαλός μας είναι ένα αναλογικό κύκλωμα, οπότε τα σήματα που μεταφέρει στο εσωτερικό του είναι αυτό που ονομάζεται «θορυβώδη σήματα». Δεν έχουν δηλαδή μόνο τη χρήσιμη πληροφορία, αλλά και «θόρυβο», άχρηστη πληροφορία που μεταφέρεται μεταξύ των συνάψεων. Επιπλέον ο ανθρώπινος εγκέφαλος δεν μπορεί να συγκρατήσει σε καμία περίπτωση τον όγκο πληροφορίας που συγκρατεί ένα τεχνητό νευρωνικό δίκτυο. Όμως προφανώς είμαστε πιο έξυπνοι, άρα ο τρόπος με τον οποίο μαθαίνουμε ως άνθρωποι είναι ίσως πιο αποδοτικός και μάλλον διαφέρει σημαντικά από τους αλγορίθμους μάθησης των τεχνητών νευρωνικών δικτύων.

Επιπλέον, ενώ η τεχνητή νοημοσύνη είναι πολύ καλή στο να συγκρατεί και να συνθέτει πληροφορία, δεν είναι καθόλου καλή στο να κάνει συλλογισμούς.

Πρόκειται στην ουσία για ένα μηχάνημα το οποίο συνθέτει άπειρα δεδομένα με μια στοχαστική, δηλαδή μια τυχαία (στατιστικά) διαδικασία και εκεί οφείλεται και η φαινομενική του ευφυΐα ή δημιουργικότητα.

Ωστόσο παραμένει ένας «παπαγάλος» που αναπαράγει τα πράγματα που ήδη ξέρει χωρίς να μπορεί να συνθέσει νέα γνώση αφού δεν μπορεί να κάνει συλλογισμούς. Δεν μπορεί δηλαδή να ανακαλύψει τους αιτιώδεις μηχανισμούς που παράγουν τις συσχετίσεις τις οποίες εντοπίζει.

Για παράδειγμα, ας υποθέσουμε ότι τροφοδοτείται ένα Τεχνητό Νευρωνικό Δίκτυο με δεδομένα τα οποία δείχνουν ότι όταν αφήνεις ένα αντικείμενο από ψηλά, αυτό πέφτει. Το δίκτυο θα μάθει πράγματι ότι όταν αφήνεις ένα αντικείμενο, αυτό πέφτει κάτω. Οπότε αν ερωτηθεί «Αν αφήσω μια πέτρα, αυτή θα πέσει;» θα απαντήσει θετικά. Όμως δεν θα μπορέσει να αναρωτηθεί και άρα να δώσει μια εξήγηση στο ερώτημα «Γιατί πέφτουν όλα τα αντικείμενα κάτω;».

Αυτές οι παρατηρήσεις έχουν οδηγήσει ορισμένους σημαντικούς επιστήμονες να αμφισβητούν την ευφυία αυτών των μηχανών. Συγκεκριμένα ο Νοαμ Τσόμσκι, ένα από τα μεγαλύτερα μυαλά στο χώρο της γλωσσολογίας, έγραψε μαζί με δύο ακόμα επιστήμονες ένα άρθρο στους New York Times, το οποίο έκλεινε με τη φράση «Δεδομένης της ανηθικότητας, της ψευδοεπιστήμης και της γλωσσικής ανικανότητας αυτών των συστημάτων, δεν μπορούμε παρά να γελάσουμε ή να κλάψουμε με τη δημοτικότητά τους».

Από την άλλη, υπάρχουν επιστήμονες όπως ο Τζέφρι Χίντον, οι οποίοι παρόλο που βλέπουν τη διαφορά ανθρώπινου εγκεφάλου και τεχνητής νοημοσύνης, θεωρούν ότι ο κίνδυνος να μας ξεπεράσουν σε εξυπνάδα αυτές οι μηχανές είναι υπαρκτός ακόμα και αν η δική τους ευφυΐα διαφέρει πολύ από την ανθρώπινη.

Τα οφέλη της Τεχνητής Νοημοσύνης

Φυσικά ανεξαρτήτως του πόσο ευφυή ή όχι είναι αυτά τα τεχνουργήματα, του πόσο κοντά ή όχι βρίσκονται στην ανθρώπινη νοημοσύνη, έχουν μια σειρά από πολύ σημαντικά οφέλη και μπορούν να βοηθήσουν καταλυτικά πολλούς κλάδους της οικονομίας, των επιστημών, ακόμη και των τεχνών.

Αρχικά οι ερευνητές σε διάφορους κλάδους των επιστημών, ακόμα και στις ανθρωπιστικές επιστήμες, αξιοποιούν ήδη εργαλεία μηχανικής μάθησης τα οποία σε πολλές περιπτώσεις πλέον είναι απαραίτητα για να προχωρήσει μια έρευνα. Η ικανότητα της τεχνητής νοημοσύνης να εντοπίζει συσχετίσεις μεταξύ πολύ μεγάλων συνόλων δεδομένων είναι πλέον πολύ συχνά απαραίτητη για την εξαγωγή επιστημονικών συμπερασμάτων.

Ένα πολύ ενδιαφέρον παράδειγμα αποτελεί το εργαλείο AlphaFold, το οποίο έχει την ικανότητα να προβλέπει το σχήμα διαφόρων πρωτεϊνών και μέσω αυτού του εργαλείου επιστήμονες έχουν καταφέρει να εντοπίσουν τη δομή πάνω από 300.000 πρωτεϊνών, μια ανακάλυψη που έχει αλλάξει ριζικά την έρευνα στη βιολογία και έχει βοηθήσει τους επιστήμονες να επιταχύνουν την έρευνα γύρω από την κατανόηση ασθενειών, τη δημιουργία φαρμάκων, αλλά ακόμα και βαθύτερα ερωτήματα που αφορούν την καταβολή της ζωής στη γη.

Αλλά και εκτός έρευνας, η τεχνητή νοημοσύνη μπορεί να φέρει σημαντικά οφέλη για τους εργαζομένους. Κατά κύριο λόγο αυτό που μπορεί να εξαλείψει η τεχνητή νοημοσύνη είναι οι πιο ρουτινιάρικες και μηχανιστικές πλευρές της εργασίας, επιτρέποντας στους εργαζόμενους να επικεντρωθούν στο πιο δημιουργικό κομμάτι της δουλειάς τους.

Ας σκεφτούμε για παράδειγμα έναν δικηγόρο ο οποίος δεν χρειάζεται πλέον να ανατρέχει χειροκίνητα σε παλιούς νόμους και δικαστικές αποφάσεις, αλλά μπορεί με τη χρήση τεχνητής νοημοσύνης να παράξει μια περίληψη αντίστοιχων υποθέσεων με αυτή που έχει αναλάβει. Ας φανταστούμε έναν υπάλληλο γραφείου ο οποίος πλέον δεν χρειάζεται να συμπληρώνει φόρμες excel και να γράφει τυπικές αναφορές.

Η τεχνητή νοημοσύνη μπορεί να αποτελέσει πολύ χρήσιμο εργαλείο για λογιστές, προγραμματιστές, μαθηματικούς, δημοσιογράφους ακόμα και καλλιτέχνες λειτουργώντας ως πηγή έμπνευσης και δημιουργώντας βάσεις από τις οποίες μπορεί να εκκινήσει ένα έργο.

Επιπλέον, υπάρχουν πολλές εφαρμογές στην ιατρική όπου οι γιατροί μπορούν να βοηθηθούν από την τεχνητή νοημοσύνη τόσο στις διαγνώσεις όσο και στις επεμβάσεις. Επίσης, σε πολλές εργασίες που περιλαμβάνουν τυπικούς ελέγχους ασφάλειας ή ποιότητας μπορεί να χρησιμοποιηθεί η τεχνητή νοημοσύνη ώστε συνεπικουρικά να εντοπίσει προβλήματα που έχουν διαφύγει από τους ανθρώπους.

Αν συνυπολογίσει κανείς και τις εξελίξεις στη ρομποτική, τότε μπορούμε να φανταστούμε ένα μέλλον στο οποίο μια σειρά από επικίνδυνες και ανθυγιεινές εργασίες μπορούν να εκτελούνται από ρομπότ με τεχνητή νοημοσύνη.

Όμως όλα αυτά είναι υποθετικά σενάρια, γιατί όσο και αν αντικειμενικά η τεχνολογία αυτή θα μπορούσε να οδηγήσει σε ένα καλύτερο μέλλον για τους εργαζόμενους, στην πράξη είναι πολύ πιθανό να οδηγήσει σε αύξηση της ανεργίας, στην εντατικοποίηση της εργασίας και σε μείωση των μισθών. Η εικόνα που δίνουν οι αναλυτές της άρχουσας τάξης είναι αντιφατική.

Σύμφωνα με έρευνα του ΟΟΣΑ που διεξήχθη το 2022 μεταξύ εργαζομένων και εργοδοτών στο μεταποιητικό και χρηματοπιστωτικό κλάδο επτά χωρών, δεν προκύπτουν ανησυχίες για σημαντική μείωση της απασχόλησης λόγω της χρήσης τεχνητής νοημοσύνης στην εργασία. Αυτό οφείλεται στο ότι η χρήση τεχνητής νοημοσύνης είναι περιορισμένη, καθώς βρίσκεται στα πρώτα της στάδια και οι επιχειρήσεις ακόμα πειραματίζονται με την εφαρμογή της. Επιπλέον οφείλεται στο ότι αντί για απολύσεις, προς το παρόν έχουμε συνταξιοδοτήσεις με παράλληλο περιορισμό των προσλήψεων. Από αυτό συμπεραίνει κανείς ότι η επέκταση της χρήσης τεχνητής νοημοσύνης στην εργασία είναι πιθανό να οδηγήσει και σε απολύσεις στο μέλλον.

Αυτό εμμέσως επιβεβαιώνεται και από την έρευνα η οποία εντοπίζει ότι τρεις στους πέντε εργαζόμενους φοβούνται ότι μπορεί να χάσουν τη δουλειά τους μέσα στην επόμενη δεκαετία, πράγμα λογικό καθώς οι δουλειές που αυτοματοποιούνται και άρα μπορούν να αντικατασταθούν από την τεχνητή νοημοσύνη υπολογίζονται στο 27% της συνολικής απασχόλησης. Από την άλλη, η έρευνα εντοπίζει τα οφέλη αυτής καθ’ αυτής της τεχνητής νοημοσύνης, καθώς το 63% των εργαζομένων δήλωσαν πως η εργασία τους έγινε πιο ευχάριστη με τη χρήση της.

Στον αντίποδα, έρευνα της Goldman Sachs του 2023 εντοπίζει ότι ενώ με τη χρήση τεχνητής νοημοσύνης το παγκόσμιο ΑΕΠ μπορεί να ανέβει μέχρι και 7% σε βάθος δεκαετίας, κινδυνεύουν 300 εκατομμύρια θέσεις εργασίας στις ανεπτυγμένες χώρες.

Υπολογίζεται επίσης ότι οι εφαρμογές μόνο του ChatGTP θα επηρεάσουν δύο στους δέκα εργαζόμενους στο 50% του περιεχομένου της εργασίας τους. Εκτιμάται, ότι γύρω στα 86 επαγγέλματα είναι «εκτεθειμένα» και 15 «πλήρως εκτεθειμένα» στις εφαρμογές του ChatGTP.

Ανάμεσα σε αυτούς τους εκτεθειμένους επαγγελματίες είναι οι μαθηματικοί, οι φυσικοί, οι χρηματοοικονομικοί αναλυτές, οι λογιστές και ελεγκτές, οι δημοσιογράφοι, οι νομικοί, οι γραμματείς και διοικητικοί βοηθοί, οι διορθωτές, οι διερμηνείς, οι μεταφραστές κ.ά. Ωστόσο, σε επαγγέλματα που απαιτείται ανθρώπινη ψυχο-πνευματική παρουσία, όπως δάσκαλοι, δικηγόροι-δικαστές, διευθυντικά στελέχη, καλλιτέχνες-συγγραφείς, ψυχολόγοι-ψυχίατροι, αναλυτές συστημάτων Η/Υ, οι συνέπειες θα είναι περιορισμένες, ή και ανύπαρκτες.

Προς το παρόν επίσης, δεν φαίνεται να απειλούνται τα χειρωνακτικά επαγγέλματα ωστόσο οι εξελίξεις στη ρομποτική τα επόμενα χρόνια δεν είναι καθόλου απίθανο να είναι τέτοιες, ώστε σε συνδυασμό με την τεχνητή νοημοσύνη να μπορούν να αντικατασταθούν και χειρώνακτες εργαζόμενοι.

Εκτός από την καθ’ εαυτή αύξηση της ανεργίας που είναι από μόνη της ένα πολύ αρνητικό φαινόμενο, συνέπεια της θα είναι και η μείωση των μισθών, καθώς ιστορικά οι «στρατιές των ανέργων» χρησιμοποιούνται από τους εργοδότες ως μοχλός για τη συμπίεση του μεροκάματου.

Κοινωνικές συνέπειες της Τεχνητής Νοημοσύνης

Δυστυχώς οι αρνητικές συνέπειες της χρήσης τεχνητής νοημοσύνης δεν περιορίζονται μόνο στο μέλλον της εργασίας, αλλά αφορούν και μια σειρά ηθικά και κοινωνικά ζητήματα.

Πρώτο και πολύ σημαντικό ερώτημα που προκύπτει, είναι αυτό των προσωπικών δεδομένων. Αν ένα τεχνητό νευρωνικό δίκτυο έχει εκπαιδευτεί με δεδομένα απλών ανθρώπων, τότε ποια είναι τα δικαιώματά τους πάνω σε αυτά τα δεδομένα και πάνω στην τεχνολογία αυτή και τις χρήσεις της; Ας φανταστούμε ότι κάποιος/α έχει ένα λογαριασμό στην Google και αυτή χρησιμοποιεί τα δεδομένα από τον λογαριασμό του/της για να εκπαιδεύσει τεχνητή νοημοσύνη. Ενώ το άτομο αυτό μπορεί να έχει το δικαίωμα να αποσύρει τα δεδομένα αυτά, η τεχνητή νοημοσύνη που εκπαιδεύτηκε πάνω τους τα έχει συγκρατήσει και τα χρησιμοποιεί για να παράξει αποτελέσματα και κέρδος για την Google. Αυτά τα δεδομένα είναι πρακτικά ανέφικτο να αφαιρεθούν από τη μνήμη της τεχνητής νοημοσύνης και κατά συνέπεια θα παραμείνουν εκεί για πάντα.

Επιπλέον, η τεχνητή νοημοσύνη και συγκεκριμένα συστήματα όπως το chatGPT μπορούν να χρησιμοποιηθούν ποικιλοτρόπως για κακόβουλη χρήση. Μπορούν να χρησιμοποιηθούν για τη διάδοση ψευδών πληροφοριών, μπορούν να χρησιμοποιηθούν για τη δημιουργία πλαστών εικόνων, ακόμα και βίντεο που δήθεν επιβεβαιώνουν fake news.

Μπορούν έτσι να αποτελέσουν ένα πολύ χρήσιμο εργαλείο για την Ακροδεξιά, αλλά και τη συστημική προπαγάνδα.

Εκτός της παραπληροφόρησης όμως, έρευνες έχουν δείξει ότι εργαλεία όπως το chatGPT μπορούν να χρησιμοποιηθούν για πλαστογραφία, για αντιγραφή υπογραφών, για διάδοση κακόβουλων λογισμικών (όπως βρήκε έρευνα της Europol) αλλά ακόμα και για να βρει κάποιος πληροφορίες για το πώς να κατασκευάσει εκρηκτικά στο σπίτι του από απλά υλικά, ή πώς να αγοράσει παράνομα όπλα στο διαδίκτυο.

Ακόμα, καθώς οι πληροφορίες πάνω στις οποίες εκπαιδεύεται ένα σύστημα τεχνητής νοημοσύνης σαν το chatGPT αντλούνται από το διαδίκτυο και από τις συζητήσεις που αυτό κάνει με διάφορους χρήστες, μπορεί εν τέλει να καταλήξει να αναπαράγει μισογυνιστικό, ρατσιστικό, ομοφοβικό λόγο. Και αυτό μάλιστα μπορεί να το κάνει με συμπαγή επιχειρήματα και περιβάλλοντας το με μια φαινομενική αντικειμενικότητα.

Κατά την εκπαίδευση του GPT-4 ερευνητές βρήκαν ότι το μοντέλο αυτό μπορούσε να γράφει κείμενα πολύ πειστικά κατά των εκτρώσεων, υπέρ ρατσιστικών στερεοτύπων και ούτω καθεξής. Φυσικά αυτά ρυθμίστηκαν και το τελικό προϊόν δεν αναπαράγει τέτοιου είδους λόγο, ωστόσο δεν μπορεί να υπάρχει εμπιστοσύνη ή σιγουριά ότι κάτι τέτοιο δεν θα συμβεί στο μέλλον.

Τα δεδομένα πάνω στα οποία εκπαιδεύεται η τεχνητή νοημοσύνη επηρεάζουν τις απαντήσεις που θα δώσει στα ερωτήματα των χρηστών. Kατά συνέπεια η επιλογή αυτών των δεδομένων θα πρέπει να ρυθμιστεί έτσι ώστε το μοντέλο να μην αναπαράγει ψευδείς πληροφορίες, ρατσιστικό/φασιστικό λόγο κοκ.

Το ερώτημα είναι ποιος αποφασίζει τι είναι ψευδής πληροφορία και τι είναι αληθής. Μπορούμε να εμπιστευτούμε μια ιδιωτική εταιρεία να κάνει κάτι τέτοιο; Μπορούμε να εμπιστευθούμε μια καπιταλιστική κυβέρνηση να ελέγξει κάτι τέτοιο; Και στις δύο περιπτώσεις το μόνο που θα καταφέρουμε είναι να έχουμε μια ιδιότυπη λογοκρισία.

Χαρακτηριστικό παράδειγμα αποτελεί η δήλωση του Ίλον Μασκ (Elon Mask) ότι η τεχνητή νοημοσύνη που θα αναπτύξει η δική του εταιρεία θα είναι ανεπηρέαστη από την αριστερίστικη προπαγάνδα. Μπορούμε να φανταστούμε τι σημαίνει αυτό.

Εκτός των δεδομένων όμως, τα μοντέλα τεχνητής νοημοσύνης που υπάρχουν τώρα εμφανίζουν απρόβλεπτες συμπεριφορές. Αυτό συμβαίνει διότι δεν είναι κατανοητό ακριβώς τι συμβαίνει στο εσωτερικό τους και πώς ακριβώς υπολογίζουν την απάντηση την οποία δίνουν. Αυτό είναι παραδεκτό από πολλούς επιστήμονες ακόμα και από τον CEO της Google και απαιτεί πολύ προσοχή και πολλή έρευνα κατά τον σχεδιασμό, την ανάπτυξη και τον έλεγχο πριν την κυκλοφορία στο κοινό τέτοιων συστημάτων.

Δυστυχώς όμως ο ανταγωνισμός μεταξύ των εταιρειών για το ποιος θα επιτύχει πρώτος το μεγαλύτερο άλμα στην τεχνητή νοημοσύνη (κι επομένως ποια θα αποκομίσει μεγαλύτερα κέρδη) τις οδηγεί στο να παραβλέπουν κρίσιμα στάδια ελέγχου και ρυθμίσεις των μοντέλων που κατασκευάζουν.

Η Google για παράδειγμα, ήταν πολύ προσεκτική στο παρελθόν σε σχέση με τον έλεγχο των μοντέλων που κατασκεύαζε. Όμως από τη στιγμή που μπήκε η Microsoft στο παιχνίδι και χρηματοδότησε τη δημιουργία του chatGPT το οποίο πλέον έχει ενσωματώσει στο Bing, τη δική της μηχανή αναζήτησης, απειλώντας το μονοπώλιο της Google, η τελευταία μπήκε και αυτή πολύ πιο δυναμικά στο παιχνίδι της τεχνητής νοημοσύνης παραβλέποντας ελέγχους και ρυθμίσεις. Η δε Microsoft μείωσε δραστικά το προσωπικό που απασχολούσε στο τμήμα δεοντολογίας της τεχνητής νοημοσύνης.

Ζούμε δυστυχώς κάτι αντίστοιχο με τον πυρετό του χρυσού, αλλά με την τεχνητή νοημοσύνη – και αυτό έχει οδηγήσει πολλούς επιστήμονες διεθνώς να κρούουν τον κώδωνα του κινδύνου λόγω των ελλιπών ελέγχων και τις βιαστικής έρευνας.

Το Μάρτιο του 2023 πάνω από 1.000 επιστήμονες που ασχολούνται με την τεχνητή νοημοσύνη κάλεσαν όλα τα εργαστήρια να παύσουν τις εργασίες τους και να σταματήσουν να κάνουν πειράματα σε μοντέλα ισχυρότερα του GPT-4 για 6 μήνες με σκοπό να γίνει έρευνα ως προς την πλήρη κατανόηση των μέχρι στιγμής μοντέλων. Τον Απρίλη του 2023 η Association for the Advancement of AI (στην οποία μετέχουν κορυφαία στελέχη του χώρου) εξέδωσε μια δημοσίευση με την οποία εξέφραζε τις ανησυχίες της για την τεχνητή νοημοσύνη και καλούσε εταιρείες και κυβερνήσεις να εργαστούν υπεύθυνα για να αποφευχθούν οι κίνδυνοι που ελλοχεύουν.

Το νομικό πλαίσιο γύρω από το θέμα αυτή τη στιγμή είναι από έωλο έως ανύπαρκτο. Οι ΗΠΑ δεν έχουν κάποιο νομικό πλαίσιο που να ρυθμίζει την τεχνητή νοημοσύνη, ενώ η Ευρωπαϊκή Ένωση έχει κάποιους νόμους οι οποίοι όμως δεν καλύπτουν προϊόντα όπως το chatGPT ούτε τις εφαρμογές τους από τους μεγάλους τεχνολογικούς κολοσσούς. Προετοιμάζεται αυτή τη στιγμή μια γενική νομοθεσία για την τεχνητή νοημοσύνη στην Ευρωπαϊκή Ένωση, για την οποία όμως υπάρχουν ήδη ενστάσεις καθώς φαίνεται ότι θα προβλέπει εξαιρέσεις με την κλασική πλέον δικαιολογία της εθνικής ασφάλειας. Μπορεί για παράδειγμα να προβλέπονται εξαιρέσεις για συστήματα αναγνώρισης προσώπων σε δημόσιους χώρους.

Μια ακόμα άκρως επικίνδυνη χρήση της τεχνητής νοημοσύνης αφορά στην πολεμική βιομηχανία. Είναι γεγονός πως όλες οι μεγάλες ιμπεριαλιστικές δυνάμεις επιθυμούν την αξιοποίηση αυτής της νέας τεχνολογίας για πολεμικούς σκοπούς. Αυτοί μπορεί να έχουν να κάνουν είτε με την ανάπτυξη στρατιωτών ρομπότ οι οποίοι θα μπορούν να αναπτυχθούν στο πεδίο της μάχης, είτε με τεχνικές υβριδικού πολέμου όπως, για παράδειγμα, κυβερνοεπιθέσεις μεταξύ κρατών.

Αυτό το ζήτημα συνδέεται και με ένα ακόμα θέμα που απασχολεί πολύ κόσμο. Και αυτό έχει να κάνει με το αν η τεχνητή νοημοσύνη μπορεί με κάποιο τρόπο να αποκτήσει συνείδηση και να στραφεί ενάντια στην ανθρωπότητα. Το να απαντηθεί αυτό το ερώτημα είναι πολύ δύσκολο και μάλλον ακατόρθωτο αυτή τη στιγμή. Ωστόσο αυτό που μπορούμε να πούμε αρκετά σίγουρα σε αυτή τη φάση είναι ότι με την παρούσα τεχνολογία τα μοντέλα τεχνητής νοημοσύνης που έχουμε δεν είναι ικανά για κάτι τέτοιο, καθώς δεν είναι ικανά να έχουν δική τους βούληση.

Από την άλλη μια στρατιωτική εφαρμογή τεχνητής νοημοσύνης όπως ένας στρατιώτης ρομπότ, θα πρέπει να έχει τη δυνατότητα να λαμβάνει κατά κάποιο τρόπο αποφάσεις. Δηλαδή αν η εντολή του είναι να καταστρέψει έναν στόχο, θα πρέπει να έχει την ικανότητα να αυτοπροσδιορίζει ορισμένες υποεντολές για τον εαυτό του μέσω των οποίων μπορεί να επιτύχει τον στόχο με διάφορους τρόπους. Αυτή η ικανότητα μπορεί να καταστήσει αυτό το ρομπότ πολύ επικίνδυνο.

Συμπεράσματα

Πρέπει να προσεγγίσουμε το ζήτημα της τεχνητής νοημοσύνης με ισορροπία. Δεν πρέπει να πέσουμε ούτε στην παγίδα του «θετικισμού» παραβλέποντας τις αρνητικές συνέπειες, ούτε να καταφύγουμε σε τεχνοφοβικά συμπεράσματα και σε ένα σύγχρονο λουδιτισμό (την καταστροφή δηλαδή των νέων τεχνολογιών).

Η τεχνητή νοημοσύνη μπορεί να αποφέρει πολλά οφέλη στην ανθρωπότητα όπως κάθε μεγάλη τεχνολογική εξέλιξη. Για να γίνει όμως αυτό, χρειάζεται ορθή και ελεγχόμενη χρήση της και αυτό είναι κάτι το οποίο δεν μπορεί να διασφαλιστεί από μόνο του και δεν μπορεί να το διασφαλίσει το καπιταλιστικό σύστημα.

Γι’ αυτό τα κινήματα πρέπει να είναι σε εγρήγορση και πρέπει άμεσα να διεκδικήσουν μια σειρά από αιτήματα τα οποία μπορούν να βάλουν ένα φρένο στις χειρότερες πτυχές της τεχνητής νοημοσύνης. Πρώτον πρέπει να υπάρξει διεκδίκηση να μην χρησιμοποιηθεί στην πολεμική βιομηχανία. Θα πρέπει επίσης να παλέψουμε ώστε να αναπτυχθεί ένα ισχυρό νομικό πλαίσιο το οποίο θα θέτει περιορισμούς στην ανάπτυξη της τεχνητής νοημοσύνης και θα προστατεύει τα προσωπικά δεδομένα των πολιτών. Θα πρέπει να παλέψουμε ενάντια στη διάδοση ψεύτικων πληροφοριών κατασκευασμένων με τεχνητή νοημοσύνη. Θα πρέπει να διεκδικήσουμε οι τεχνολογικοί κολοσσοί να μοιράζονται την έρευνά τους, τον κώδικα των προγραμμάτων που κατασκευάζουν, αλλά και τα δεδομένα που χρησιμοποιούν με ανεξάρτητους φορείς, με πανεπιστήμια, με ανεξάρτητους ερευνητές, ώστε να μπορούν να εντοπιστούν πληρέστερα και αντικειμενικότερα απρόβλεπτες συμπεριφορές, βεβιασμένη εκπαίδευση αυτών των μοντέλων, δυνατότητα κακόβουλης χρήσης τους, κοκ.

Επιπλέον θα πρέπει να παλέψουμε για την προάσπιση των θέσεων εργασίας και των εργασιακών δικαιωμάτων, έτσι ώστε την αύξηση στην παραγωγικότητα της εργασίας που θα φέρει η τεχνητή νοημοσύνη να την καρπωθούν οι εργαζόμενοι μέσω της μείωσης των ωρών εργασίας και της αύξησης των μισθών. Αυτά φυσικά είναι μια σειρά από άμεσες διεκδικήσεις που δεν μπορούν να δώσουν πλήρη λύση στο πρόβλημα. Όσο επιβιώνει το καπιταλιστικό σύστημα το οποίο βασίζεται στο κέρδος και βάζει αυτό πάνω από την ανθρώπινη ζωή και την ευημερία της κοινωνίας, τόσο κράτη, κυβερνήσεις, εταιρείες θα βρίσκουν τρόπους να αξιοποιήσουν την τεχνητή νοημοσύνη αδιαφορώντας για τους κινδύνους και τις συνέπειες όπως έχουν κάνει στο παρελθόν με άλλες τεχνολογικές επαναστάσεις.

Συνεπώς τελικός στόχος του κινήματος θα πρέπει να είναι η εθνικοποίηση κάτω από συνθήκες εργατικού και κοινωνικού ελέγχου και διαχείρισης των τεχνολογικών κολοσσών, γιατί μόνο έτσι μπορούν να γίνουν πράξη τα πιο πάνω και μόνο έτσι η ανάπτυξη της Τεχνητής Νοημοσύνης θα γίνει με τρόπο που θα υπηρετεί την κοινωνία.



Πηγές:
https://www.youtube.com/watch?v=qpoRO378qRY
https://www.nytimes.com/2023/05/01/technology/ai-google-chatbot-engineer-quits-hinton.html?searchResultPosition=4
https://aaai.org/working-together-on-our-future-with-ai/
https://www.nytimes.com/2023/03/29/technology/ai-artificial-intelligence-musk-risks.html
https://www.nytimes.com/2022/07/28/science/ai-deepmind-proteins.html
https://www.kathimerini.gr/life/technology/562408663/oi-doyleies-poy-den-kindyneyoyn-apo-tin-techniti-noimosyni-akoma/
https://www.efsyn.gr/stiles/apopseis/386429_tehniti-noimosyni-kai-theseis-ergasias
https://www.iefimerida.gr/tehnologia/tehniti-noimosyni-antiktypo-agora-ergasias-periorismenos-oosa

σχετικά άρθρα:

Ακολουθήστε το «Ξ» στο Google News για να ενημερώνεστε για τα τελευταία άρθρα μας.

Μπορείτε επίσης να βρείτε αναρτήσεις, φωτογραφίες, γραφικά, βίντεο και ηχητικά μας σε facebook, twitter, instagram, youtube, spotify.

Ενισχύστε οικονομικά το xekinima.org

διαβάστε επίσης:

7,282ΥποστηρικτέςΚάντε Like
1,002ΑκόλουθοιΑκολουθήστε
1,118ΑκόλουθοιΑκολουθήστε
426ΣυνδρομητέςΓίνετε συνδρομητής

Επίκαιρες θεματικές

Πρόσφατα άρθρα