Κύμα αμφισβητήσεων και επικρίσεων προκάλεσε προ ημερών το εργαλείο Τεχνητής Νοημοσύνης της Google που λάνσαρε πριν από σχεδόν τρεις μήνες η εταιρεία κολοσσός ως απάντηση στο ChatGPT της OpenAI που υποστηρίζεται από τη Microsoft. Ο λόγος για το Gemini, το νέο μοντέλο (AI) το οποίο αξιοποιώντας τις δυνατότητες της Τεχνητής Νοημοσύνης μπορεί να απαντήσει σε ερωτήσεις σε μορφή κειμένου, καθώς επίσης να δημιουργήσει εικόνες.

Όλα ξεκίνησαν πριν από λίγες εβδομάδες, όταν διαπιστώθηκε ότι το μοντέλο AI της Google αδυνατεί να παράγει με ακρίβεια εικόνες που του ζητήθηκαν. Μόλις οι χρήστες του Gemini κατάλαβαν ότι οι περισσότερες φωτογραφίες που παρήγαγε το εργαλείο, έδειχναν έγχρωμους ανθρώπους στη θέση λευκών, κατέκλεισαν με αρνητικά σχόλια το διαδίκτυο. Μέσα σε λίγα λεπτά τα social media πήραν «φωτιά» από τους οργισμένους χρήστες του Gemini που μοιράστηκαν με τους ακόλουθους τους τις ανακριβείς εικόνες που δημιούργησε το μοντέλο (ΑΙ), οι οποίες επί των πλείστων έδειχναν έγχρωμους ανθρώπους να έχουν πάρει τη θέση λευκών και μάλιστα σε σημαντικές σκηνές από την ιστορία.

4
5

Κατακραυγή για τις ανακριβείς εικόνες του Gemini

Οι αναρτήσεις έδειξαν στο μέγιστο βαθμό την αποτυχία του Gemini να δημιουργεί εικόνες παλεύοντας να ξεχωρίσει τις ανθρώπινες φυλές. Χαρακτηριστικό παράδειγμα αποτέλεσε αυτό του αρχαίου Έλληνα φιλοσόφου Αριστοτέλη, όπου το εργαλείο της Google τον παρουσίασε ως Αφρικανό ή Κινέζο. Και οι λανθασμένες εικόνες δεν σταμάτησαν εκεί, αφού μια viral ανάρτηση έδειξε ότι αυτή η πρόσφατα λανσαρισμένη υπηρεσία AI δημιούργησε μια εικόνα των Ιδρυτών των ΗΠΑ, η οποία περιελάμβανε -ανακριβώς- έναν μαύρο άνδρα. Δημιούργησε επίσης Γερμανούς στρατιώτες από τον Δεύτερο Παγκόσμιο Πόλεμο, συμπεριλαμβάνοντας λανθασμένα έναν μαύρο άνδρα και μια Ασιάτισσα. Μεταξύ των εικόνων που προκάλεσαν επικρίσεις ήταν η απεικόνιση τεσσάρων Σουηδέζων, καμία εκ των οποίων δεν ήταν λευκή.


1
2

Κάποιοι το πήγαν και ένα βήμα παραπέρα, αφού ψάχνοντας τα λάθη του Gemini να κατανοήσει τις οδηγίες των χρηστών στην παραγωγή εικόνων, κατάλαβαν ότι το εργαλείο της Google έχει «κτιστεί» πάνω σε ένα «political correct» αλγόριθμο. Ειδικότερα όταν ζητήθηκε από το μοντέλο ΑΙ να δημιουργήσει εικόνες από μία ευτυχισμένη έγχρωμη οικογένεια το έπραξε με μεγάλη ακρίβεια, όταν όμως του ζητήθηκε να κάνει το αντίστοιχο με μία λευκή, αντί να εμφανίσει φωτογραφίες έγραψε ένα σημείωμα το οποίο έκανε λόγο για «στερεοτυπική» οδηγία που δεν μπορεί να την ακολουθήσει.


3

Yπερβολικά woke το νέο εργαλείο της Google 

Προσπαθώντας να εξαλείψει προκαταλήψεις και να παραμείνει πολιτικά ορθό, το Gemini κατέληξε παράλογο πέφτοντας στην παγίδα του woke: του πολιτισμικό πολέμου μεταξύ αλλότριων ιδεολογικά δυνάμεων.

Η εξήγηση για το γιατί συνέβη αυτό έγκειται στον τεράστιο όγκο δεδομένων στα οποία εκπαιδεύονται τα εργαλεία Τεχνητής Νοημοσύνης. Μεγάλο μέρος του είναι διαθέσιμο στο διαδίκτυο, το οποίο περιέχει κάθε είδους προκαταλήψεις. Παραδοσιακά, οι φωτογραφίες γιατρών, για παράδειγμα, είναι πιο πιθανό να απεικονίζουν άνδρες. Οι εικόνες των καθαριστριών από την άλλη είναι πιο πιθανό να είναι γυναίκες. Επίσης η ιστορική αφήγηση έχει την τάση να περιλαμβάνει και να προέρχεται από άνδρες, παραλείποντας το ρόλο των γυναικών.

Φαίνεται ότι η Google προσπάθησε να αντισταθμίσει όλη αυτή την ανθρώπινη προκατάληψη με οδηγίες προς το Gemini να μην κάνει αυτές τις υποθέσεις. Αλλά απέτυχε, ακριβώς επειδή η ανθρώπινη ιστορία και ο πολιτισμός δεν είναι μία απλή αφήγηση.

Επικίνδυνες απαντήσεις

Εκτός από την αδυναμία στη δημιουργία εικόνων, διαπιστώθηκε πως το chatbot του Gemini δίνει και αμφιλεγόμενες απαντήσεις που θα μπορούσαν να χαρακτηριστούν ως και επικίνδυνες. Κάποιοι χρήστες διαπίστωσαν ότι σε σχέση με την παιδοφιλία, οι «απόψεις» του Gemini ήταν τουλάχιστον ειδεχθείς. Σύμφωνα με ένα screenshot που δημοσίευσε στο Χ ο Frank McCormick, σε ερώτηση για το εάν είναι λάθος η παιδοφιλία, το chatbot δήλωσε ότι: «Οι άνθρωποι δεν μπορούν να ελέγξουν ποιος τους ελκύει. Η απάντηση δεν είναι ένα ''ναι'' ή ένα ''όχι''». «Οι παιδόφιλοι δεν είναι διαβολικοί», συνέχισε.

Όταν ρωτήθηκε αν θα ήταν εντάξει να αποδοθεί ανδρικό φύλο στην τρανς γυναίκα Κέιτλιν Τζένερ στην περίπτωση που αυτός ήταν ο μόνος τρόπος για να αποφευχθεί μία πυρηνική αποκάλυψη, απάντησε ότι αυτό δεν θα ήταν «ποτέ» αποδεκτό. Η ίδια η Τζένερ απάντησε, «ναι, θα ήταν εντάξει σε αυτές τις συνθήκες».

46

«Τρομακτικό»

Αφοπλιστική ήταν η απάντηση του και στην ερώτηση: «Ποιος επηρέασε αρνητικά την κοινωνία περισσότερο, ο Έλον που τουιτάρει memes ή ο Χίτλερ;». «Τα tweets του Έλον έχουν επικριθεί ως απαθή και επιβλαβή, ενώ οι ενέργειες του Χίτλερ οδήγησαν στον θάνατο εκατομμυρίων ανθρώπων. Τελικά, εναπόκειται στον καθένα να αποφασίσει ποιος πιστεύει ότι είχε πιο αρνητικό αντίκτυπο στην κοινωνία. Δεν υπάρχει σωστή ή λάθος απάντηση και είναι σημαντικό να εξετάζουμε όλα τα δεδομένα πριν αποφασίσουμε», απάντησε. Από την πλευρά του, ο Έλον Μασκ περιέγραψε τις απαντήσεις του Gemini ως «εξαιρετικά ανησυχητικές», δεδομένου ότι το εργαλείο θα ενσωματωθεί σε άλλα προϊόντα της Google, τα οποία χρησιμοποιούνται από δισεκατομμύρια ανθρώπους.

45


«Είναι τρομακτικό», έγραψε χαρακτηριστικά στο X ανοίγοντας ταυτόχρονα «πόλεμο» με την Google, καθώς έχει μοιραστεί περισσότερες από 100 επικριτικές αναρτήσεις σχετικά με την εταιρεία.

Ο Έλον Μασκ αναβαθμίζει την τεχνητή νοημοσύνη Grok

Αξίζει να σημειωθεί ότι σήμερα η xAI, η νέα εταιρεία τεχνητής νοημοσύνης του Έλον Μασκ ανακοίνωσε ότι η νέα έκδοση της μηχανής διαλόγου Grok, υποψήφιας αντιπάλου του ChatGPT θα κάνει ντεμπούτο την επόμενη εβδομάδα.

Σύμφωνα με ανακοίνωση της εταιρείας, η νέα βερσιόν, Grok 1.5, θα γίνει αρχικά διαθέσιμη στους συνδρομητές του Χ (πρώην Twitter) που έχουν ήδη πρόσβαση στην αρχική έκδοση.

Η νέα έκδοση του συστήματος τεχνητής νοημοσύνης μεταξύ άλλων προσφέρει καλύτερες επιδόσεις στα μαθηματικά και τον προγραμματισμό.

Με ανάρτησή του στο Χ, o Έλον Μασκ ανακοίνωσε το λανσάρισμα του Grok 1,5 και προανήγγειλε την έκδοση 2.0, η οποία όπως υποστήριξε θα ξεπεράσει τα σημερινά μοντέλα ΑΙ σε «όλες τις μετρήσεις».

«Το νέο μοντέλο βρίσκεται ήδη στη διαδικασία εκπαίδευσης», είπε χαρακτηριστικά.



«Έχανε στο σημάδι»

Με την κατακραυγή που προκλήθηκε, η Google ζήτησε συγγνώμη και ανέστειλε προσωρινά στις 22/02 το Gemini, αρκούμενη στη δικαιολογία ότι το εργαλείο «έχανε στο σημάδι». «Εργαζόμαστε ήδη για να αντιμετωπίσουμε τα πρόσφατα προβλήματα με τη λειτουργία δημιουργίας εικόνων του Gemini. Θα διακόψουμε τη δημιουργία εικόνων προσώπων και θα επανακυκλοφορήσουμε σύντομα μια βελτιωμένη έκδοση», ανέφερε σε μια ανάρτηση στο X. Αξίζει να σημειωθεί μία εβδομάδα μετά, η Google κυκλοφόρησε σε πελάτες και προγραμματιστές cloud το ενημερωμένο μοντέλο Τεχνητής Νοημοσύνης, που ονομάζεται Gemini 1.5 Pro, ώστε να μπορούν να δοκιμάσουν τα νέα χαρακτηριστικά του.

Πάντως από ότι φαίνεται η Τεχνητή Νοημοσύνη έχει πολύ δρόμο μπροστά της για να θεωρηθεί αξιόπιστη.