Διάνα Βουτυράκου: «Η Τεχνητή Νοημοσύνη πρέπει να υπηρετεί τον άνθρωπο, όχι να τον ελέγχει»

Η Διάνα Βουτυράκου, πρωτοπόρος στη ρομποτική χειρουργική, μιλά για την Τεχνητή Νοημοσύνη, τα στερεότυπα που την επηρεάζουν και τις ευθύνες μας για ένα δίκαιο τεχνολογικό μέλλον.

καλλιτέχνης

Πώς μπορεί η Τεχνητή Νοημοσύνη να γίνει σύμμαχος του ανθρώπου χωρίς να ενισχύει ανισότητες ή να διαμορφώνει επικίνδυνες εξαρτήσεις; Η Διάνα Βουτυράκου, κορυφαία επιστήμονας στον τομέα της ρομποτικής χειρουργικής, μιλάει στο pelop.gr και δίνει απαντήσεις σε κρίσιμα ερωτήματα θέτοντας παράλληλα καίρια ζητήματα, όπως η αντιμετώπιση των στερεοτύπων στα δεδομένα, η ισότητα πρόσβασης στις τεχνολογίες και οι ηθικές δικλίδες στη χρήση της AI.

Πάτρα: Η Τεχνητή Νοημοσύνη στο επίκεντρο του σύγχρονου πολιτισμού – Ημερίδα στο θέατρο Λιθογραφείον

Με αφορμή την ημερίδα για την τεχνητή νοημοσύνη που θα πραγματοποιηθεί αύριο στο θέατρο Λιθογραφείον και διοργανώνεται από την “Μηχανή Τέχνης” με αφορμή την παράσταση “Marjorie Prime”, μας καλεί να ξανασκεφτούμε το ρόλο της AI και την ευθύνη όλων μας – επιστημόνων, κυβερνήσεων και πολιτών – στη διαμόρφωση ενός τεχνολογικού μέλλοντος που θα υπηρετεί τις ανάγκες του ανθρώπου.

Οι αλγόριθμοι και τα data καθοδηγούν όλες μας τις αποφάσεις, από το τι βλέπουμε online μέχρι το αν παίρνουμε μια δουλειά. Πού τελειώνει ο έλεγχος και αρχίζει η «επικίνδυνη εξάρτηση»;

Η αλήθεια είναι ότι για να απαντήσουμε αυτό το ερώτημα θα πρέπει να εισάγουμε κάποιους όρους στη συζήτηση. Θεωρώ ότι θα πρέπει να μιλήσουμε λίγο για το πού σταματάει και πού ξεκινάει η επέμβαση του ανθρώπου σε αυτή τη διαδικασία. Στην επιστήμη το λέμε human in the loop, δηλαδή πού ενσωματώνεις τον άνθρωπο, είτε στην επεξεργασία των δεδομένων πριν, είτε στη λήψη αποφάσεων μετά.

Το παγκόσμιο κίνημα που έχει ξεκινήσει, ουσιαστικά στοχεύει στο αν ο άνθρωπος δεν έχει καμία επέμβαση στα δεδομένα, τουλάχιστον ο χρήστης να ενημερώνεται για το ποιος πήρε την απόφαση για αυτόν. Τι εννοώ: κάνουμε μία αίτημα για ένα δάνειο και απορρίπτεται. Θα πρέπει ο άνθρωπος να ξέρει: απορρίφθηκε από έναν αλγόριθμο, δηλαδή από μία διαδικασία που μπορεί να μην έλαβε υπ’ οψιν της προσωποποιημένα στοιχεία ή και ένας άνθρωπος εξέτασε τη διαδικασία; Το ίδιο ισχύει με μία αίτηση για δουλειά. Έκανα μία αίτηση. Είδε κάποιος άνθρωπος το βιογραφικό μου ή απλά πέρασε από ένα σύστημα και απορρίφθηκα;

Αυτή η διαδικασία κατά τη γνώμη μου, θα επηρεάσει και θα μειώσει την εξάρτηση από τα δεδομένα. Το στοίχημα το μεγάλο είναι να κάνουμε πιο ανθρώπινη τη διαδικασία αξιοποίησης της τεχνητής νοημοσύνης και των μεγάλων δεδομένων φυσικά. Και νομίζω ότι από εκεί απέχουμε αρκετά ακόμα.

Η AI «μαθαίνει» από δεδομένα που τηρούνται ήδη. Τι γίνεται όμως όταν τα δεδομένα κουβαλούν στερεότυπα και ανισότητες; Δεν κινδυνεύουμε να διαιωνίσουμε προβλήματα αντί να τα λύσουμε;

Όλα κουβαλούν ανισότητες. Μπορεί να μην είναι επίτηδες, αλλά να είναι ιστορικές ανισότητες. Για παράδειγμα, για πάρα πολλά χρόνια λιγότερες γυναίκας δουλεύαν σε έναν τομέα, οπότε αυτόματα θεωρεί ένας αλγόριθμος ότι ένας άνδρας είναι ο καταλληλότερος υποψήφιος. Όχι, επειδή ο ίδιος ο αλγόριθμος έχει την προκατάληψη, αλλά επειδή 9 στις 10 επιτυχημένες περιπτώσεις εργαζομένων είναι άνδρες σε έναν τομέα. Θα πρέπει πάντα με αυτή την οπτική να εξετάζουμε τα δεδομένα. Το θέμα εκεί «μεγαλώνει» γιατί οι ανισότητες μπορεί να είναι σε κάθε επίπεδο. Μπορεί να είναι μεταξύ ανθρώπων έγχρωμων ή λευκών.

Για παράδειγμα στην Αμερική πριν μερικά χρόνια παρατηρήθηκε ότι υπήρχε τεράστιο σφάλμα στην αλγοριθμική αναγνώριση εικόνας, στο να καταλάβει και να ξεχωρίσει ο αλγόριθμος μαύρες γυναίκες. Συγκεκριμένα, τις περνούσε για γορίλες. Αυτό εγείρει και πολλά ζητήματα ασφαλείας όταν π.χ. μπορεί αυτός ο αλγόριθμος να χρησιμοποιηθεί στο αεροδρόμιο ή στο δρόμο για τον έλεγχο μίας κατάστασης. Εκεί φάνηκε και ένα άλλο κενό. Δεν έχουμε labeled δεδομένα, δεδομένα τα οποία να αφορούν μία συγκεκριμένη κατάσταση. Να ξέρουμε π.χ. ότι σε ένα dataset τόσα δεδομένα έχουν αντληθεί από άνδρες, τόσο από λευκούς, κλπ, δηλαδή να έχουμε μία κατηγοριοποίηση πέρα από το ότι το δεδομένο ότι το ύψος είναι τάδε, τα κιλά τόσα και τι του αρέσει. Να έχουμε πιο ευαίσθητα δεδομένα στην κατηγοριοποίηση και να τα λαμβάνουμε υπ’ όψιν μας. Και αυτό σίγουρα γεννάει πολλές ανισότητες.

Θέσατε ένα θέμα όσον αφορά όσον αφορά τις γυναίκες και την AI και την «προτίμηση» που δείχνει σε άνδρες, δεδομένου όπως είπατε ότι υπάρχουν κάποιες ιστορικές ανισότητες και στερεότυπα. Πόσο επηρεάζει τελικά τις ήδη επιβαρυμένες στον επαγγελματικό τομέα γυναίκες η ΑΙ;

Η αλήθεια είναι ότι τις επηρεάζει αρκετά και είναι σημαντικό αυτό να αρχίσει να μπαίνει στον δημόσιο διάλογο. Ήδη είχαμε περιπτώσεις αλγορίθμων σε προτάσεις για δουλειά, τα οποία έτειναν να προτείνουν στους manager να προσλαμβάνουν άνδρες και όχι γυναίκες για μία θέση γιατί τους θεωρούσαν πιο επιτυχημένους. Όμως πέρα από αυτό έχει να κάνει και με την εκπαίδευση των παιδιών από μικρότερη ηλικία. Ένας αλγόριθμος τεχνητής νοημοσύνης ο οποίος όταν τον ρωτήσεις πώς μοιάζει ένας CEO θα σου δείξει έναν άνδρα, πώς μοιάζει ένας πετυχημένος και δυναμικός άνθρωπος -χωρίς να προσδιορίζεις το φύλο- αλλά θα σου δείξει έναν άνδρα στο αποτέλεσμα, περνάει ήδη το στερεότυπο από μικρές ηλικίες. Άρα ο πετυχημένος, ο δυναμικός είναι ένας άνδρας, ή ο CEO, ο μηχανικός είναι ένας άνδρας. Και αυτό υποσυνείδητα ακόμα επηρεάζει το τι πιστεύουμε ότι μπορούμε να καταφέρουμε. Είναι πολύ σημαντικό αυτό το στερεότυπο να το σπάσουμε, αναδεικνύοντάς το και αλλάζοντάς το στη συνέχεια. Νομίζω ότι εκεί, επειδή απαιτεί και πολιτικές από την Πολιτεία από τις ίδιες τις εταιρίες που πρέπει να ελέγχουν τι data χρησιμοποιούν, δεν υπάρχει ακόμα κάποια συλλογική προσπάθεια να το αλλάξουν.

Οι γυναίκες επηρεάζονται και στο κομμάτι της τεχνητής νοημοσύνης και στο κομμάτι των επαγγελμάτων που χάνονται με την τεχνητή νοημοσύνη. Να πω ένα απλό παράδειγμα: πριν από κάποια χρόνια, έκανε το Harvard μία μελέτη στην οποία εξηγούσε ότι από τα πρώτα επαγγέλματα που θα χαθούν με τον αυτοματισμό είναι η εξυπηρέτηση πελατών, επαγγέλματα όπως υπάλληλοι στα super market, τα οποία κατά πλειοψηφία γίνονται από γυναίκες, τουλάχιστον σύμφωνα με τις υπάρχουσες στατιστικές. Αυτό σημαίνει ότι ακόμα και αν «αφήσουμε» το γεγονός για το ποιον προτείνει το ΑΙ για δουλειά, ή τι θεωρεί το ΑΙ πιο πετυχημένο, το ίδιο το επάγγελμα που θα μειωθεί το εργατικό δυναμικό για να μπει το ΑΙ, θα επηρεάσει περισσότερο τις γυναίκες, γιατί περισσότερες γυναίκες εργάζονται σε αυτά τα επαγγέλματα, στα πρώτα τουλάχιστον που θα αντικατασταθούν.

καλλιτέχνης

Βλέπουμε ότι φτάνουμε σε μία στιγμή που η Τεχνητή Νοημοσύνη παίρνει κρίσιμες αποφάσεις για τις ζωές μας, ποιος θα πρέπει να βάζει τα ηθικά όρια; Οι επιστήμονες, οι κυβερνήσεις, ή οι ίδιοι οι πολίτες;”

Νομίζω και οι τρεις. Πρώτ’ απ’ όλα θα πρέπει οι επιστήμονες -και αυτό αφορά καθέναν από εμάς- να καταλάβουμε ότι υπάρχει ευθύνη. Όταν αναπτύσσουμε μία ΑΙ, π.χ. εγώ καθημερινά εργάζομαι και αναπτύσσω ιατρικά ρομπότ, πρέπει να καταλάβουμε ότι δεν τελειώνει η αρμοδιότητά μας στο ότι φτιάξαμε το ρομπότ, το παραδώσαμε και μετά δεν έχουμε καμία ευθύνη. Θα πρέπει να έχουμε και εμείς τις αναζητήσεις πού θα χρησιμοποιηθεί, πώς θα χρησιμοποιηθεί, τι δικλίδες ασφαλείας θα υπάρχουν. Είναι πολύ σημαντική αυτή η διεπιστημονική προσέγγιση, τα ηθικά ερωτήματα που θα πρέπει να θέτουν οι ίδιοι οι επιστήμονες από την κατασκευή ενός αλγόριθμου, ενός αυτοματισμού κλπ.

Αλλά αυτό είναι το πρώτο στάδιο. Το δεύτερο στάδιο ξεκινά πάλι από τον επιστήμονα και φτάνει στους πολίτες και είναι η ενημέρωση. Ειδικά στην Ελλάδα που μιλάμε για ένα πολύ υψηλό ποσοστό τεχνολογικού αναλφαβητισμού, είναι λογικό να υπάρχει και άγνοια και φόβος και ίσως μία δυσπιστία. Και εκεί είναι πάλι συνολική η δουλειά που πρέπει να γίνει. Πρέπει ο επιστήμονας να επικοινωνήσει και να εκλαϊκεύσει το τι φτιάχνει, πώς θα επηρεάσει τον άνθρωπο και φυσικά η Πολιτεία να εκπαιδεύσει τον πολίτη ώστε να μπορέσει αυτός να επωφεληθεί. Να κρατήσουμε τα καλά της τεχνολογίας.

Τέλος, ο πολίτης θα πρέπει να συνεργαστεί με την Πολιτεία σε συνολικές πολιτικές, από το πολύ απλό με έναν αλγόριθμο που χρησιμοποιείται στην υγεία και στην εκπαίδευση να μην περιέχει στερεότυπα και να μην αδικεί κάποιον, μέχρι πολύ πιο μαζικά πώς σιγουρεύομαι εγώ σαν Πολιτεία ότι υπάρχει προσβασιμότητα και οτιδήποτε τεχνολογικό φέρνω. Και όταν λέω προσβασιμότητα δεν εννοώ μόνο οικονομική εννοώ και γεωγραφική είτε ο πολίτες βρίσκεται στη Γαύδο είτε στην Αθήνα, αλλά και γνωσιακή, να μπορεί να το χρησιμοποιήσει και κάποιος που είναι 65 και κάποιος που είναι 15 χρόνων.

Η Τεχνητή Νοημοσύνη υπόσχεται πρόοδο και ανάπτυξη, αλλά ταυτόχρονα δημιουργεί προβλήματα όπως η ενίσχυση του χάσματος μεταξύ ανεπτυγμένων και αναπτυσσόμενων χωρών. Πώς μπορούμε να εξασφαλίσουμε μια πιο δίκαιη διανομή της τεχνολογίας;

Αυτή είναι μία συζήτηση που έχει ξεκινήσει και που απασχολεί ιδιαίτερα τον τομέα της ρομποτικής χειρουργικής. Φτιάχνουμε όλο και περισσότερα ρομπότ για όλο και περισσότερες επεμβάσεις. Όμως δεν έχει την ίδια πρόσβαση ο πολίτης στην Ευρώπη με τον πολίτη στην Αφρική σε μια τέτοια τεχνολογία. Και αν την έχει, ο πολίτης στην Αφρική θα πρέπει να έχει και τα χρήματα για να πληρώσει κάτι τέτοιο που είναι πάρα πολύ δύσκολο. Η αλήθεια είναι πως πολλές φορές σχεδιάζουμε λύσεις χωρίς να κάνουμε ένα βήμα πίσω και να κοιτάξουμε το πώς να δώσουμε μία λύση που θα βοηθήσει όσο γίνεται περισσότερους ανθρώπους.

Εχω δει μία τάση σε παγκόσμιο επίπεδο, κυρίως από startups, από νεότερους ανθρώπους που ξεκινούν κάτι δικό τους, να απλοποιήσουν τις διαδικασίες, να φτιάχνουν εφαρμογές μέσα από τα κινητά που να βοηθούν σε τέτοιους τομείς ή λύσεις τεχνολογικές με μικρότερο κόστος. Το αποτέλεσμα είναι ότι αφού δοκιμαστούν και πετύχουν, συνήθως εξαγοράζονται από κάποια μεγάλη εταιρία γιατί δυστυχώς το κύριο κριτήριο για την εταιρία είναι το κέρδος και δύσκολα θα ξεκινήσει μία τέτοια λύση.

Νομίζω ότι και εκεί θα πρέπει να αρχίσουν οι χώρες συνεργατικά να λένε ότι πρέπει να επωφεληθεί το maximum των πολιτών. Άρα να συνεργάζονται και να δίνουν λύσεις όχι απλά να φτιάχνουν μία λύση για τους δικούς της πολίτες ή για ένα x αριθμό πολιτών.

καλλιτέχνης

Πολύ συχνά η AI εμφανίζεται ως ‘εχθρός’ σε ταινίες ή λογοτεχνία επιστημονικής φαντασίας. Πιστεύετε ότι αυτό αντικατοπτρίζει έναν υπαρκτό φόβο ή μήπως είμαστε υπερβολικά καχύποπτοι απέναντι σε κάτι νέο και άγνωστο;

Δεν θεωρώ κακό να είμαστε καχύποπτοι γιατί νομίζω ότι μπορεί να προλάβει και καταστάσεις. Θα έλεγα ότι είμαστε περισσότερο φοβικοί παρά καχύποπτοι δυστυχώς και για εμένα αυτός ο φόβος ξεκινάει από την άγνοια: δεν ξέρω τι είναι οπότε το φοβάμαι. Το να πω ότι το θέλω αλλά έχω μία ένσταση, είμαι καχύποπτος, τελικά θετικά θα λειτουργήσει. Εκεί το πρόβλημα ξεκινά από την εκπαίδευση. Είναι κάτι γύρω μας, κάτι που ενσωματώνεται και θα συνεχίσει να ενσωματώνεται στην καθημερινότητά μας. Θα πρέπει και η ίδια η εκπαίδευσή μας να συμπορευθεί με αυτό για να μας δώσει και τις δεξιότητες για να «φιλτράρουμε» ό,τι παίρνουμε από εκεί, να κρατάμε τα καλύτερα και να απορρίπτουμε τα αρνητικά. Εμείς έχουμε φτάσει είτε να το αρνούμαστε, είτε να το χρησιμοποιούμε αφιλτράριστα.

Αν σας δίναμε την επιλογή να επανασχεδιάσετε από την αρχή τη σχέση ανθρώπου-τεχνητής νοημοσύνης, πού θα τοποθετούσατε τα όρια, και τι θα απαιτούσατε η μηχανή να «μην αγγίξει ποτέ»;

Αυτό που νομίζω θα έκανα είναι να αναρωτηθούν όλοι αυτοί που αναπτύσσουν τεχνητή νοημοσύνη «γιατί την αναπτύσσουν». Θεωρώ ότι αποκλίνουμε από τον στόχο που θα έπρεπε να έχουμε, που είναι πώς οι άνθρωποι θα ζήσουν καλύτερα α) με το να τους υποστηρίζουμε σε επαγγέλματα που είναι επικίνδυνα, βαρέα και ανθυγιεινά, να μειώσουμε εργατικά δυστυχήματα και β) να τους δώσουμε περισσότερο ελεύθερο χρόνο. Η τεχνολογία θα έπρεπε να αναπτύσσεται για να μπορέσουμε να έχουμε περισσότερο χρόνο για τις οικογένειές μας, για τον εαυτό μας και όχι για να έχουμε λιγότερες θέσεις εργασίας. Να έχουμε τις ίδιες θέσεις εργασίες με ανθρώπους που εργάζονται λιγότερες ώρες. Να ξανασκεφτούμε γιατί φτιάχνουμε ΑΙ και να το φτιάξουμε για τους ανθρώπους, για να βελτιώσουμε την ποιότητα της ζωής τους συνολικά. Αν ξεκινούσαμε μία τέτοια προσέγγιση θα είχαμε λιγότερα πράγματα να φοβόμαστε όσον αφορά το πώς θα αναπτυχθεί.

Όσον αφορά το ποιον τομέα δεν θα ήθελα ποτέ το ΑΙ να αγγίξει είναι ο στρατιωτικός. Δυστυχώς αυτό γίνεται και η αλήθεια είναι πως σε ερευνητικά πρότζεκτ στο στρατό παγκόσμια υπάρχουν πολλά χρήματα, είναι και ένας τρόπος να ξεκινήσουν πολλές τεχνολογίες. Και όντως πολλά πράγματα που χρησιμοποιούμε στη ζωή μας καθημερινά όσον αφορά την τεχνολογία, ξεκίνησαν από έρευνα στον στρατό. Το καταλαβαίνω ότι συμβαίνει, απλά εγώ την τεχνολογία την έχω πολύ διαφορετικά στο μυαλό μου.