Putting principles into practice: Adobe’s approach to AI ethics

Πηγή εικόνας: your123, Adobe Stock.

Σήμερα, οι εταιρείες ενσωματώνουν όλο και περισσότερο την τεχνητή νοημοσύνη (AI) και τη μηχανική μάθηση (ML) στα προϊόντα τους για να εξυπηρετούν καλύτερα τους πελάτες τους. Στην Adobe, εκατοντάδες λειτουργίες που τροφοδοτούνται από το Adobe Sensei, η μηχανή AI μας βοηθά τους οργανισμούς να προσφέρουν πιο εξατομικευμένες εμπειρίες, δίνοντας τη δυνατότητα στους ανθρώπους να ανεβάσουν τη δημιουργικότητά τους στο επόμενο επίπεδο και επιτρέποντας στους χρήστες να επιτύχουν μέσα σε λίγα δευτερόλεπτα ό,τι μπορεί να πάρει ώρες. Με περισσότερο από μια δεκαετία εμπειρίας στην ενσωμάτωση της τεχνητής νοημοσύνης και της μηχανικής εκμάθησης στα εργαλεία της Adobe, είναι σαφές ότι η τεχνητή νοημοσύνη μπορεί να βελτιώσει τη δημιουργία, την παράδοση και τη βελτίωση ψηφιακών εμπειριών σε κλίμακα.

Είναι επίσης σαφές ότι οι καταναλωτές σήμερα βλέπουν την αξία των αναδυόμενων τεχνολογιών: Σύμφωνα με μια πρόσφατη έρευνα της Adobe, το 70 τοις εκατό των καταναλωτών λένε ότι εμπιστεύονται την τεχνητή νοημοσύνη για τη βελτίωση της εμπειρίας της επωνυμίας τους. Αλλά για να αξιοποιήσουμε την τεχνητή νοημοσύνη με τον πιο πολύτιμο δυνατό τρόπο, πρέπει να γνωρίζουμε τις μοναδικές προκλήσεις που φέρνει αυτή η τεχνολογία. Η τεχνητή νοημοσύνη είναι τόσο καλή όσο και τα δεδομένα στα οποία έχει εκπαιδευτεί. Και ακόμη και με καλά δεδομένα, μπορείτε να καταλήξετε με προκατειλημμένη τεχνητή νοημοσύνη, η οποία μπορεί ακούσια να κάνει διακρίσεις ή να υποτιμήσει και να κάνει τους ανθρώπους να αισθάνονται λιγότερο πολύτιμοι.

Στην Adobe, προσπαθούμε συνεχώς να βελτιώνουμε την τεχνητή νοημοσύνη για όλους. Αυτός είναι ο λόγος για τον οποίο δημιουργήσαμε ένα ολοκληρωμένο πρόγραμμα ηθικής τεχνητής νοημοσύνης για να διασφαλίσουμε ότι οι τεχνολογίες τεχνητής νοημοσύνης αναπτύσσονται με ηθικό, υπεύθυνο και χωρίς αποκλεισμούς τρόπο για τους πελάτες μας και τις κοινότητές μας. Ως μία από τις πιο καινοτόμες εταιρείες στον κόσμο για σχεδόν 40 χρόνια, η Adobe λαμβάνει τον αντίκτυπο της τεχνολογίας μας τόσο σοβαρά όσο και την ανάπτυξη της ίδιας της τεχνολογίας.

Περισσότερο από ένα απλό τσιτάτο

Πριν από δύο χρόνια, όταν ξεκινήσαμε να δημιουργήσουμε το δικό μας πρόγραμμα ηθικής τεχνητής νοημοσύνης, ακολουθήσαμε μια στοχαστική και στοχαστική προσέγγιση. Αυτό ξεκίνησε με τη θέσπιση των ηθικών αρχών που ακολουθούμε κατά την ανάπτυξη τεχνολογιών που λειτουργούν με τεχνητή νοημοσύνη.

Δημιουργήσαμε μια Επιτροπή Δεοντολογίας AI που αποτελείται από μια διαλειτουργική ομάδα υπαλλήλων της Adobe με διαφορετικό φύλο, εθνικό και επαγγελματικό υπόβαθρο—από ερευνητές μηχανικούς έως προγραμματιστές προϊόντων έως νομικές ομάδες και πολλά άλλα. Η ύπαρξη μιας διαφορετικής ομάδας είναι σημαντική για την αξιολόγηση των καινοτομιών από διαφορετικές οπτικές γωνίες και μπορεί να βοηθήσει στον εντοπισμό πιθανών προβλημάτων που η λιγότερο διαφορετική ομάδα μπορεί να μην δει. Μαζί, η επιτροπή κατέληξε στις Αρχές Δεοντολογίας της Adobe AI για Υπευθυνότητα, Υπευθυνότητα και Διαφάνεια.

Με υπευθυνότητα και υπευθυνότητα, λέμε ότι δεν αρκεί πλέον να παρέχουμε την καλύτερη τεχνολογία στον κόσμο για τη δημιουργία ψηφιακών εμπειριών. Θέλουμε να βεβαιωθούμε ότι η τεχνολογία μας έχει σχεδιαστεί ώστε να είναι περιεκτική και να σέβεται τους πελάτες μας, τις κοινότητές μας και τις αξίες της Adobe. Συγκεκριμένα, αυτό σημαίνει ανάπτυξη νέων συστημάτων και διαδικασιών για την αξιολόγηση του εάν η τεχνητή νοημοσύνη μας δημιουργεί επιβλαβή προκατάληψη. Διαφάνεια σημαίνει να είμαστε ανοιχτοί σχετικά με τον τρόπο με τον οποίο χρησιμοποιούμε την τεχνητή νοημοσύνη με τους πελάτες μας και να παρέχουμε μηχανισμούς ανάδρασης για την αναφορά ανησυχιών μέσω των εργαλείων τεχνητής νοημοσύνης ή των πρακτικών τεχνητής νοημοσύνης. Θέλουμε να δεσμεύσουμε τους πελάτες μας στο ταξίδι και να συνεργαστούμε με την κοινότητά μας για να σχεδιάσουμε και να εφαρμόσουμε την τεχνητή νοημοσύνη υπεύθυνα.

Το να έχουμε ένα συνοπτικό, απλό και εφαρμόσιμο σύνολο αρχών που ευθυγραμμίζονται με συγκεκριμένες εταιρικές αξίες είναι το κλειδί για την ενεργοποίησή τους σε όλη τη μηχανολογική μας δομή.

Ασκώντας αυτό που κηρύττουμε

Πώς ακριβώς μοιάζει λοιπόν το «Ενεργοποίηση των Αρχών μας»; Έχουμε καθιερώσει τυποποιημένες διαδικασίες από το σχεδιασμό έως την ανάπτυξη έως την ανάπτυξη, οι οποίες περιλαμβάνουν εκπαίδευση, δοκιμές και μια διαδικασία αναθεώρησης που επιβλέπεται από ένα διαφορετικό Συμβούλιο Αναθεώρησης Δεοντολογίας AI.

Ως μέρος αυτής της διαδικασίας, οι μηχανικοί ολοκληρώνουν μια πολυμερή αξιολόγηση ηθικής τεχνητής νοημοσύνης για να καταγράψουν τον πιθανό ηθικό αντίκτυπο των καινοτομιών που βασίζονται σε τεχνητή νοημοσύνη. Για τα περισσότερα προϊόντα και χαρακτηριστικά, η αξιολόγηση επιπτώσεων δεν δείχνει σημαντικούς ηθικούς κινδύνους. Πάρτε, για παράδειγμα, το εργαλείο επιλογής γραμματοσειρών της Adobe που χρησιμοποιεί τεχνητή νοημοσύνη για να βοηθήσει τους πελάτες να επιλέξουν διαφορετικές γραμματοσειρές. Μετά την αρχική αξιολόγηση, το προϊόν πληρούσε τα κριτήριά μας για έγκριση. Σε άλλες περιπτώσεις, τα προϊόντα υπόκεινται σε περαιτέρω αναθεώρηση.

Πριν από το φθινόπωρο του 2020, εξετάσαμε τη λειτουργία Neural Filters στο Photoshop, η οποία επιτρέπει στους χρήστες να προσθέτουν μη καταστροφικά φίλτρα για να δημιουργήσουν πράγματα που δεν υπήρχαν προηγουμένως σε φωτογραφίες χρησιμοποιώντας AI/ML. Σκεφτείτε: προσθέτοντας χρώματα σε ασπρόμαυρες φωτογραφίες, αλλάζοντας την έκφραση ενός ατόμου από λυπημένη σε χαρούμενη, αντικαθιστώντας χτενίσματα κ.λπ. Γνωρίζαμε ότι τα νευρωνικά φίλτρα θα επέτρεπαν στους δημιουργούς να κάνουν συναρπαστικές επεξεργασίες και να επιταχύνουν τη διαδικασία επεξεργασίας φωτογραφιών. Αλλά θέλαμε να βεβαιωθούμε ότι πέτυχαν αποτελέσματα που αντικατοπτρίζουν στενά τα πραγματικά ανθρώπινα χαρακτηριστικά και δεν διαιωνίζουν επιβλαβείς προκαταλήψεις. Χάρη σε μια αυστηρή διαδικασία τεχνικής αναθεώρησης, τα νευρωνικά φίλτρα αντικατοπτρίζουν και σέβονται τα ανθρώπινα χαρακτηριστικά και έχουν γίνει τεράστια επιτυχία μεταξύ των δημιουργών σε όλο τον κόσμο.

Η συνεργασία είναι το κλειδί

Ενώ διαφορετικές εταιρείες μπορεί να έχουν τις δικές τους μοναδικές εκτιμήσεις τεχνητής νοημοσύνης, η ανάγκη για ηθικά πρότυπα όσον αφορά την τεχνητή νοημοσύνη είναι καθολική. Καθώς συνεχίζουμε να αναπτύσσουμε το πρόγραμμα ηθικής τεχνητής νοημοσύνης της Adobe, μοιραζόμαστε ό,τι μάθαμε και βέλτιστες πρακτικές με τους συναδέλφους μας στον κλάδο. Συνεισφέραμε στον Κώδικα Πρακτικής Πρακτικής του AI Ethics Industry της Software Alliance BSA, έτσι ώστε άλλες εταιρείες να μπορούν να επωφεληθούν από το έργο που έχει ήδη γίνει στο διάστημα — και ως μέλος της Συνεργασίας για την Δεοντολογία AI, συνεργαζόμαστε με ακαδημαϊκούς, πολίτες, βιομηχανία, και οργανισμούς μέσων ενημέρωσης για να αντιμετωπίσουν τα πιο σημαντικά και πιο δύσκολα ερωτήματα που σχετίζονται με το μέλλον αυτής της αναδυόμενης τεχνολογίας.

Αναγνωρίζουμε ότι η ανάπτυξη της τεχνητής νοημοσύνης και η ηθική αναθεώρηση της τεχνητής νοημοσύνης είναι μια συνεχής διαδικασία. Καθώς συνεχίζουμε να μαθαίνουμε και να μεγαλώνουμε, θα συνεργαστούμε με τους υπαλλήλους, τους πελάτες και τις κοινότητές μας για να προσφέρουμε καινοτομίες που αντικατοπτρίζουν τις αξίες μας στην Adobe και εκπληρώνουν τη δέσμευσή μας για υπεύθυνη ανάπτυξη τεχνολογίας.

Μάθετε περισσότερα εδώ για τις Αρχές της Adobe για Ηθική για την Τεχνητή Νοημοσύνη.

Αυτή η ιστορία δημοσιεύτηκε αρχικά στο CNBC.

Leave a Comment