Η ηθική τεχνητή νοημοσύνη δεν ευθύνεται για την καταστροφή Gemini της Google

By | February 29, 2024

Σε αυτήν τη φωτογραφία, το λογότυπο Google Gemini φαίνεται στο φόντο μιας σιλουέτας ενός ατόμου που χρησιμοποιεί ένα σημειωματάριο. (Απεικόνιση φωτογραφίας από τον Rafael Henrique/SOPA Images/LightRocket μέσω Getty Images) Credit – Rafael Henrique-SOPA Images/LightRocket

ΚΑΙΝωρίτερα αυτό το μήνα, η Google παρουσίασε το πολυαναμενόμενο σύστημα «Gemini», δίνοντας στους χρήστες πρόσβαση στην τεχνολογία απεικόνισης AI για πρώτη φορά. Αν και οι περισσότεροι πρώτοι χρήστες συμφώνησαν ότι το σύστημα ήταν εντυπωσιακό, δημιουργώντας λεπτομερείς εικόνες για μηνύματα κειμένου σε δευτερόλεπτα, οι χρήστες σύντομα ανακάλυψαν ότι ήταν δύσκολο να κάνουν το σύστημα να δημιουργήσει εικόνες λευκών ανθρώπων και σύντομα τα viral tweets παρουσίαζαν ενδιαφέροντα παραδείγματα, όπως φυλετικά διαφορετικοί Ναζί.

Μερικοί άνθρωποι έχουν επικρίνει τους Διδύμους ότι είναι «πολύ ξύπνιοι», χρησιμοποιώντας τους Διδύμους ως το τελευταίο όπλο σε έναν κλιμακούμενο πολιτισμικό πόλεμο για τη σημασία της αναγνώρισης των επιπτώσεων των ιστορικών διακρίσεων. Πολλοί είπαν ότι αυτό αντικατοπτρίζει μια αδιαθεσία εντός της Google, και κάποιοι επικρίθηκε το πεδίο της «Ηθικής AI» ως αμηχανία.

Η ιδέα ότι φταίει η εργασιακή ηθική της τεχνητής νοημοσύνης είναι εσφαλμένη. Μάλιστα, ο Δίδυμος έδειξε στο Google Δεν το εφάρμοσα σωστά. τα μαθήματα ηθικής της AI. Όπου η ηθική της τεχνητής νοημοσύνης εστιάζει στην αντιμετώπιση προβλέψιμων περιπτώσεων χρήσης – όπως ιστορικές αναπαραστάσεις – ο Gemini φαίνεται να έχει επιλέξει μια προσέγγιση “ένα μέγεθος για όλους”, με αποτέλεσμα έναν περίεργο συνδυασμό αναζωογονητικά διαφορετικών και αξιοσημείωτων αποτελεσμάτων.

Θα επρεπε να ξερω. Ασχολούμαι με την ηθική της τεχνητής νοημοσύνης σε εταιρείες τεχνολογίας για πάνω από 10 χρόνια, γεγονός που με κάνει έναν από τους πιο έμπειρους ειδικούς στον κόσμο στο θέμα (είναι ένας νεανικός τομέας!). Επίσης, ίδρυσα και συνοδήγησα την ομάδα “Ηθική τεχνητή νοημοσύνη” στην Google, προτού απολύσουν εμένα και τον συνεπικεφαλή μου, αφού η έκθεσή μας προειδοποίησε για ακριβώς αυτά τα είδη προβλημάτων για τη δημιουργία γλωσσών. Πολλοί επέκριναν την Google για την απόφασή της, πιστεύοντας ότι αντικατοπτρίζει συστημικές διακρίσεις και ιεράρχηση της απερίσκεπτης ταχύτητας έναντι μιας καλά μελετημένης στρατηγικής AI. Είναι πιθανό να συμφωνώ απόλυτα.

Η καταστροφή των Διδύμων αποκάλυψε για άλλη μια φορά την άπειρη στρατηγική της Google σε τομείς στους οποίους έχω μοναδικά προσόντα να βοηθήσω και τους οποίους πλέον μπορώ να βοηθήσω το κοινό να κατανοήσει γενικότερα. Αυτό το άρθρο θα συζητήσει μερικούς τρόπους με τους οποίους οι εταιρείες τεχνητής νοημοσύνης μπορούν να τα καταφέρουν καλύτερα την επόμενη φορά, αποφεύγοντας να δίνουν στην ακροδεξιά άχρηστα πυρομαχικά σε πολιτιστικούς πολέμους και διασφαλίζοντας ότι η τεχνητή νοημοσύνη ωφελεί όσο το δυνατόν περισσότερους ανθρώπους στο μέλλον.

Ένα από τα κρίσιμα κομμάτια στη λειτουργικότητα της ηθικής στην τεχνητή νοημοσύνη είναι η άρθρωση προβλέψιμης χρήσης, συμπεριλαμβανομένης της κακόβουλης χρήσης και της κακής χρήσης. Αυτό σημαίνει εργασία σε θέματα όπως Μόλις εφαρμοστεί το μοντέλο που σκεφτόμαστε να χτίσουμε, πώς θα το χρησιμοποιήσουν οι άνθρωποι; Και πώς μπορούμε να το σχεδιάσουμε ώστε να είναι όσο το δυνατόν πιο ωφέλιμο σε αυτά τα πλαίσια; Αυτή η προσέγγιση αναγνωρίζει την κεντρική σημασία του «πλαισίου χρήσης» στη δημιουργία συστημάτων AI. Αυτό το είδος πρόβλεψης και σκέψης με βάση τα συμφραζόμενα, που βασίζεται στην αλληλεπίδραση της κοινωνίας και της τεχνολογίας, είναι πιο δύσκολο για μερικούς ανθρώπους από άλλους – εδώ είναι ιδιαίτερα προσόντα άτομα με εμπειρία στην αλληλεπίδραση ανθρώπου-υπολογιστή, τις κοινωνικές επιστήμες και τις γνωστικές επιστήμες (μιλώντας στο σημασία της διεπιστημονικότητας στην πρόσληψη τεχνολογίας). Αυτές οι λειτουργίες τείνουν να μην έχουν τόση δύναμη και επιρροή όπως οι λειτουργίες μηχανικής, και εικάζω ότι αυτό ίσχυε στην περίπτωση των Διδύμων: αυτοί που ήταν πιο έμπειροι στην άρθρωση προβλέψιμων χρήσεων δεν είχαν εξουσία, οδηγώντας σε ένα σύστημα που δεν μπορούσε να χειριστεί πολλαπλές λειτουργίες. τύπους κατάλληλης χρήσης, όπως η αναπαράσταση ιστορικά λευκών ομάδων.

Τα πράγματα πάνε στραβά όταν οι οργανισμοί αντιμετωπίζουν όλες τις περιπτώσεις χρήσης ως μία περίπτωση χρήσης ή απλώς δεν μοντελοποιούν περιπτώσεις χρήσης. Ως εκ τούτου, χωρίς μια ηθική ανάλυση των περιπτώσεων χρήσης σε διαφορετικά περιβάλλοντα, τα συστήματα τεχνητής νοημοσύνης ενδέχεται να μην έχουν μοντέλα «κάτω από την κουκούλα» που βοηθούν στον προσδιορισμό του τι ζητά ο χρήστης (και αν θα πρέπει να δημιουργηθεί). Για τους Διδύμους, αυτό θα μπορούσε να περιλαμβάνει τον προσδιορισμό του εάν ο χρήστης αναζητά ιστορικές ή διαφορετικές εικόνες και εάν το αίτημά του είναι διφορούμενο ή κακόβουλο. Πρόσφατα, είδαμε την ίδια αποτυχία να δημιουργήσουμε ισχυρά μοντέλα για προβλέψιμη χρήση, που οδήγησε στον πολλαπλασιασμό του πορνό Taylor Swift που δημιουργήθηκε από την τεχνητή νοημοσύνη.

Για να βοηθήσω, πριν από χρόνια έφτιαξα το παρακάτω διάγραμμα. Το καθήκον είναι να συμπληρώσετε τα κελιά. Το συμπλήρωσα σήμερα με μερικά παραδείγματα που σχετίζονται ειδικά με τους Διδύμους.

<classe span=Credit Margaret Mitchell“data-src=”https://s.yimg.com/ny/api/res/1.2/j.YBpCv2zDGRLw4SAsR_8w–/YXBwaWQ9aGlnaGxhbmRlcjt3PTk2MDtoPTUzMw–/https://media.zenfs_15000000000000000000001 893c50c946 ” />”Πνευματική ιδιοκτησία”
Credit Margaret Mitchell

Τα πράσινα κελιά (επάνω σειρά) είναι εκείνα στα οποία είναι πιο πιθανό το ωφέλιμο AI (όχι όπου το AI θα είναι πάντα ωφέλιμο). Τα ερυθρά αιμοσφαίρια (μεσαία σειρά) είναι εκείνα όπου είναι πιο πιθανή η επιβλαβής τεχνητή νοημοσύνη (αλλά μπορεί επίσης να είναι εκεί όπου μπορούν να προκύψουν απρόβλεπτες ευεργετικές καινοτομίες). Τα υπόλοιπα κύτταρα είναι πιο πιθανό να έχουν μικτά αποτελέσματα – κάποια καλά αποτελέσματα, κάποια άσχημα.

Τα επόμενα βήματα περιλαμβάνουν την επεξεργασία πιθανών σφαλμάτων σε διαφορετικά πλαίσια, την αντιμετώπιση δυσανάλογων σφαλμάτων για υποομάδες που υπόκεινται σε διακρίσεις. Οι προγραμματιστές Gemini φαίνεται να έχουν καταλάβει αυτό το κομμάτι αρκετά σωστά. Η ομάδα φαίνεται ότι είχε την προνοητικότητα να αναγνωρίσει τον κίνδυνο υπερεκπροσώπησης των λευκών σε ουδέτερες ή θετικές καταστάσεις, κάτι που θα ενίσχυε μια προβληματική άποψη για τον κόσμο που κυριαρχούν οι λευκοί. Και έτσι, πιθανότατα υπήρχε μια υπομονάδα στο Gemini που σχεδιάστηκε για να δείχνει πιο σκούρους τόνους δέρματος στους χρήστες.

Το γεγονός ότι αυτά τα βήματα είναι εμφανή στους Διδύμους, αλλά όχι βήματα που περιλαμβάνουν προβλέψιμη χρήση, μπορεί να οφείλεται, εν μέρει, στην αυξημένη ευαισθητοποίηση του κοινού σχετικά με την προκατάληψη στα συστήματα τεχνητής νοημοσύνης: η προκατάληψη υπέρ των λευκών ήταν ένας εφιάλτης στη χρήση. Εύκολα προβλέψιμες δημόσιες σχέσεις που αντηχούν Το Google Gorilla Incident έγινε διάσημο, ενώ οι διαφοροποιημένες προσεγγίσεις για την αντιμετώπιση του “πλαισίου χρήσης” δεν ήταν. Το καθαρό αποτέλεσμα ήταν ένα σύστημα που «έχασε το σημάδι» περιλαμβάνοντας κατάλληλες και προβλέψιμες περιπτώσεις χρήσης.

Το συμπέρασμα είναι ότι είναι δυνατό να έχουμε τεχνολογία που ωφελεί τους χρήστες και ελαχιστοποιεί τη ζημιά σε όσους είναι πιο πιθανό να επηρεαστούν αρνητικά. Αλλά πρέπει να έχετε ανθρώπους που είναι καλοί σε αυτό να περιλαμβάνονται στις αποφάσεις ανάπτυξης και εγκατάστασης. Και αυτοί οι άνθρωποι συχνά μένουν αδύναμοι (ή χειρότερα) στην τεχνολογία. Δεν χρειάζεται να είναι έτσι: μπορούμε να έχουμε διαφορετικούς δρόμους προς την τεχνητή νοημοσύνη που ενδυναμώνουν τους κατάλληλους ανθρώπους σε ό,τι είναι ικανό να βοηθήσουν. Όπου αναζητούνται διαφορετικές προοπτικές, όχι κλειστές. Το να φτάσετε εκεί απαιτεί σκληρή δουλειά και αναστατωμένα φτερά. Θα ξέρουμε ότι βρισκόμαστε στο σωστό δρόμο όταν αρχίσουμε να βλέπουμε στελέχη τεχνολογίας τόσο διαφορετικά όσο οι εικόνες που δημιουργεί το Gemini.

Επικοινωνήστε μαζί μας στο letters@time.com.