Κυριακή 8 Σεπτεμβρίου 2024

ΘΑ ΣΤΕΛΝΑΤΕ ΑΥΡΙΟ ΤΟ ΠΑΙΔΙ ΣΑΣ ΝΑ ΔΙΔΑΧΘΕΙ ΣΤΟ ΣΧΟΛΕΙΟ ΑΠΟ ΕΝΑΝ ΑRTIFICIAL INTELLIGENCE ΚΑΘΗΓΗΤΗ;;

 

ΛΥΚΑΣΤΡΟΣ :

ΘΑ ΣΤΕΛΝΑΤΕ ΑΥΡΙΟ ΤΟ ΠΑΙΔΙ ΣΑΣ ΝΑ ΔΙΔΑΧΘΕΙ ΣΤΟ ΣΧΟΛΕΙΟ ΑΠΟ ΕΝΑΝ ΑRTIFICIAL INTELLIGENCE ΚΑΘΗΓΗΤΗ;;

Σύνοψη σεντονιού:
 
🔺️Η συντηρητική άποψή περί της εκπαίδευσης, αυτή δηλαδή που την θεωρεί ως τον χώρο μετάδοσης μόνο γνώσεων για την δημιουργία δεξιοτήτων, δεν θα είχε κανένα πρόβλημα να απαντήσει θετικά στο πιο πάνω ερώτημα. Ένας τέτοιος καθηγητής είναι φθηνότερος, δεν έχει απαιτήσεις, αξιολογείται αδιαμαρτύρητα και δεν κάνει λάθη, θα σου πει.
 
Αγνοώντας όμως ότι:
 
🔺️Το περιεχόμενο που δημιουργείται από AI αρχίζει να γεμίζει το διαδίκτυο και αυτό θα μπορούσε να είναι άσχημα νέα για τα μελλοντικά μοντέλα AI.
 
🔺️Τα μοντέλα γλώσσας όπως το ChatGPT εκπαιδεύονται χρησιμοποιώντας περιεχόμενο που βρίσκεται στο διαδίκτυο και καθώς η τεχνητή νοημοσύνη δημιουργεί πιο «συνθετικό» περιεχόμενο, θα μπορούσε να δημιουργήσει ένα μηχανολογικό πρόβλημα γνωστό ως «κατάρρευση μοντέλου».
 
🔺️Το φιλτράρισμα συνθετικών δεδομένων από μοντέλα εκπαίδευσης, που γίνεται ένας σημαντικός τομέας έρευνας και πιθανότατα θα αυξηθεί καθώς το περιεχόμενο AI αρχίζοντας να γεμίζει το Διαδίκτυο, δεν είναι αρκετό για να αποτρέψει την κατάρρευση αυτού του συστήματος που στηρίζεται στην υπερσυγκεντρωση δεδομένων.
 
Το σεντόνι:
 
Ο ουροβόρος είναι το διάσημο αρχαίο σύμβολο ενός φιδιού που καταβροχθίζει την ουρά του. Καθώς το περιεχόμενο που δημιουργείται από μοντέλα γλώσσας τεχνητής νοημοσύνης όπως το ChatGPT αρχίζει να γεμίζει το διαδίκτυο —συχνά προς απογοήτευση των πολύ ανθρώπινων συντακτών που εργάζονται σε αυτούς τους ιστότοπους ή στα επαγγέλματα που σχετίζονται με την δημιουργική γραφή — πολλά αποτελεσματα της δράσης της ΑΙ συνοδεύονται από πολλά σφάλματα.
 
Και αυτό είναι μεγάλο πρόβλημα, γιατί το Διαδίκτυο είναι το ίδιο το υλικό πηγής πάνω στο οποίο εκπαιδεύονται αυτά τα γλωσσικά μοντέλα, που στηρίζονται σε αλγόριθμους που επινοήθηκαν από μαθηματικούς την δεκαετία του 70 και του 80 (τα Petri-nets από Σοβιετικούς αρχικά και τα νευρωνικά δίκτυα αργότερα).
 
Με άλλα λόγια, η AI, που βρήκε την ευκαιρία να εκκολαφτεί μόνο όταν υπερσυγκεντρώθηκαν παράνομα πολλά δεδομένα από εταιρίες του web2.0 τυπου Facebook και Google, αφού εκκολαφτηκε, άρχισε ήδη να τρώει την ουρά της. 
 
Αυτό μπορεί να περιγραφεί καλύτερα με τις συνεχείς φωτοτυπίες επί της ίδιας φωτοτυπίας. Στο τέλος το αρχικό περιεχόμενο αλλοιώνεται τελείως., Με τον ίδιο τρόπο και η τεχνητή νοημοσύνη θα μπορούσε να αρχίσει να εκπαιδεύεται σε συνθετικά δεδομένα γεμάτα λάθη έως ότου το ίδιο το πράγμα που προσπαθούσε να δημιουργήσει γίνει η απόλυτη ασυναρτησία. Αυτό είναι που οι ερευνητές της τεχνητής νοημοσύνης αποκαλούν «κατάρρευση μοντέλου».
 
Οι ειδικοί αυτού του κλάδου της πληροφορικής προειδοποιούν ότι η τεχνητή νοημοσύνη/ευφυία θα μπορούσε να προκαλέσει την εξαφάνιση του ανθρώπου. Αυτό δεν είναι όμως βέβαιο γιατί η ΑΙ εξελίσσεται ανεξέλεγκτα και χωρίς ανθρώπινη παρέμβαση πολύ πιο γρήγορα από ότι εξελίσσεται το ανθρώπινο είδος και οι κοινωνίες που έχει κατασκευάσει. Ο κίνδυνος εντοπίζεται κυρίως σε ορισμένα επαγγέλματα, που πραγματικά κινδυνεύουν να εξαφανιστούν. Όπως πχ των πραγματικών δημοσιογράφων (τα παπαγαλάκια, όπως οι περισσότεροι δικοί μας που αναμεταδίδουν μόνο προπαγάνδα και ότι πει το ΑΠΕ, έχουν εξαφανιστεί ήδη- αλλά δεν το ξέρουν...) ή οι προγραμματιστές, οι συμβολαιογράφοι ή οι γραφειοκράτες της δημόσιας διοίκησης.
 
Και φυσικά, όπως και σε κάθε άλλη ανθρώπινη επινόηση, ο κίνδυνος βρίσκεται στην κακή της χρήση, όπως αυτή που γίνεται τώρα για να παραβιαστεί κάθε έννοια πνευματικής ιδιοκτησίας και προσωπικών δεδομένων, για να αναπτυχθεί ο τεχνοφεουδαρχισμός των bigtech του διαδικτύου στην θέση των μηχανισμών του νεοφιλελευθερισμού. Η της με χωρίς όρους χρήσης της στην εκπαιδευτική διαδικασία. Που και αυτός κατέρρευσε μαζί με την περίφημη "αόρατη χείρα " του, (που όλα θα τα ρύθμιζε, τρομάρα της). 
 
Λόγω αυτού του προβλήματος, ψάχνουν τώρα να βρούν τρόπους για να μην χρησιμοποιεί η ΑΙ δεδομένα του ίντερνετ που έχουν παραχθεί από προγράμματα ΑΙ. (το πρόβλημα είναι ισοδύναμο με τον εντοπισμό των fake news που αναπαράγονται στο internet γρήγορα λόγω της ανθρώπινης βλακείας).
 
Και καταλήγουν πάλι σε αυτό που ήταν γνωστό από την δεκαετία του 80:
 
✔️Πάντα θα χρειάζεται η ανθρώπινη ευφυΐα για να μπορεί να εξελιχθεί η τεχνητή. Χωρίς την πρώτη η ΑΙ θα καταρρεύσει!
 
Η ανθρώπινη ευφυΐα όμως, που παράγει πραγματικά νέα γνώση και πρόοδο, στηρίζεται στην λειτουργία της διαίσθησης (και μετά της απόδειξης), με δύο λόγια σε αυτό που λέμε επιστήμη.Καμία όμως μηχανή δεν μπορεί να δημιουργήσει τεχνητή διαίσθηση για ένα απλό λόγο:
 
Η διαίσθηση λειτουργεί με χαοτικά μοντέλα στο ανθρώπινο μυαλό, και είναι το αποτέλεσμα της εξέλιξης μας μέσα σε κοινωνίες που ανταλλάσσουν γνώση. Καμία όμως μηχανή δεν μπορεί να λειτουργήσει το ίδιο χαοτικά αλλά μόνο με γραμμικό τρόπο. Στο δημιουργικό χάος (που πολύ το φοβούνται ακόμα, όπως και το να εμπιστεύονται την διαίσθηση τους), όλες οι μηχανές καταρρέουν.
 
Έτσι, μπροστά στην προοπτική ενός ΑΙ δασκάλου να διδάσκει σε μια τάξη μέσα σε ένα δυστοπικό περιβάλλον ενός σχολείου απολυμασμένου με οξυζενέ συντηρητισμό, ένας πραγματικά ευφυής μαθητής θα έκανε κοπάνα (εγώ αυτό θα έκανα)_. Στέλνοντας μια ψηφιακή του ρέπλικα να διδαχθεί αντ' αυτού από τον ΑΙ καθηγητή, που δεν μπορεί να του διδάξει το σημαντικότερο:
 
✔️Την αμφισβήτηση, που είναι και η αρχή για την ανάπτυξής της οποίας διαίσθησης του.
 
Μετά της καλημέρας μου.
 
 ΤΙ δεν κατάλαβες βλέποντας αυτήν την σκηνή;;
 

Δεν υπάρχουν σχόλια:

Δημοσίευση σχολίου