Όταν η κάμερα αποφασίζει ποιος είσαι

Ένα δημοσίευμα του Guardian για πολίτες στη Βρετανία που αναγνωρίστηκαν λανθασμένα ως ύποπτοι από συστήματα αναγνώρισης προσώπου ανοίγει μια συζήτηση που μας αφορά όλους. Όχι επειδή η τεχνολογία είναι από μόνη της εχθρός, αλλά επειδή η κοινωνία δείχνει όλο και πιο πρόθυμη να ανταλλάξει κομμάτια της ελευθερίας της με μια υπόσχεση ασφάλειας.

Όταν η κάμερα αποφασίζει ποιος είσαι

Υπάρχει κάτι βαθιά ταπεινωτικό στο να πρέπει να αποδείξεις ότι είσαι ο εαυτός σου. Όχι σε ένα γραφείο, όχι μπροστά σε έναν υπάλληλο που σου ζητά την ταυτότητα, όχι σε μια διαδικασία που, έστω κουραστικά, έχει κανόνες. Αλλά στη μέση ενός καταστήματος, μπροστά σε άλλους πελάτες, επειδή μια κάμερα, ένα λογισμικό και μια βάση δεδομένων αποφάσισαν ότι μοιάζεις με κάποιον που πρέπει να θεωρηθεί ύποπτος.

Αυτό δεν είναι σκηνή από δυστοπική σειρά. Είναι η αφορμή που έδωσε πρόσφατο ρεπορτάζ του Guardian, το οποίο κατέγραψε περιπτώσεις πολιτών στη Βρετανία που βρέθηκαν να αντιμετωπίζονται ως ύποπτοι για κλοπές, αφού συστήματα αναγνώρισης προσώπου τους ταυτοποίησαν λανθασμένα. Άνθρωποι που μπήκαν να ψωνίσουν και βγήκαν κουβαλώντας την αμηχανία, την ντροπή και την αγωνία να αποδείξουν ότι δεν ήταν αυτοί που έλεγε το σύστημα.

Εδώ βρίσκεται η ουσία. Δεν μιλάμε πια για μια αφηρημένη συζήτηση περί τεχνολογίας. Μιλάμε για τη στιγμή που το λάθος της μηχανής ακουμπά το σώμα ενός ανθρώπου.

Γιατί όταν ένας αλγόριθμος κάνει λάθος σε έναν πίνακα δεδομένων, το λάθος μοιάζει ψυχρό. Όταν όμως κάνει λάθος σε ένα πρόσωπο, υπάρχει άνθρωπος που σταματά, εξηγεί, απολογείται, κοκκινίζει, νιώθει τα βλέμματα πάνω του, επιστρέφει σπίτι και συνεχίζει να το σκέφτεται.

Και κάπως έτσι, το τεχνικό γίνεται πολιτικό. Η αναγνώριση προσώπου παρουσιάζεται συνήθως με τον γνωστό, καθησυχαστικό τρόπο. Θα βοηθήσει στην ασφάλεια. Θα εντοπίσει παραβάτες. Θα προστατεύσει καταστήματα, δρόμους, σταθμούς, μεγάλους χώρους. Θα κάνει τα πράγματα πιο γρήγορα, πιο έξυπνα, πιο αποτελεσματικά.

Ποιος θα πει εύκολα όχι στην ασφάλεια; Κανείς. Και αυτή είναι ακριβώς η παγίδα. Διότι η ερώτηση δεν είναι αν θέλουμε να είμαστε ασφαλείς. Η ερώτηση είναι πόσο εύκολα δεχόμαστε να θεωρούμαστε όλοι πιθανοί ύποπτοι μέχρι να αποδειχθεί το αντίθετο.

Μέχρι πρόσφατα, η ταυτότητα ήταν κάτι που έβγαζες από την τσέπη όταν υπήρχε λόγος να σου ζητηθεί. Τώρα γίνεται κάτι που κουβαλάς εκτεθειμένο επάνω σου διαρκώς. Το πρόσωπο, αυτή η τόσο προσωπική και αναπόφευκτη παρουσία μας στον κόσμο, μετατρέπεται σε κωδικό πρόσβασης, σε σήμα ελέγχου, σε πιθανή ένδειξη κινδύνου.

Δεν αλλάζει μόνο η τεχνολογία αλλά αλλάζει η σχέση μας με τον δημόσιο χώρο. Μπαίνεις σε ένα κατάστημα και δεν είσαι απλώς πελάτης. Περνάς από έναν αόρατο έλεγχο. Περπατάς σε έναν δρόμο και δεν είσαι απλώς περαστικός. Μπορεί να είσαι ένα πρόσωπο που συγκρίνεται. Πηγαίνεις σε έναν σταθμό, σε μια συναυλία, σε ένα γήπεδο, και χωρίς να το καταλάβεις έχεις ήδη μπει σε μια διαδικασία ταξινόμησης.

Αυτό δεν σημαίνει ότι κάθε χρήση τέτοιας τεχνολογίας είναι ίδια ή ότι πρέπει να δαιμονοποιηθεί συλλήβδην. Σημαίνει όμως ότι πρέπει να πάψουμε να κάνουμε πως δεν καταλαβαίνουμε τι διακυβεύεται.

Το πρόσωπό μας δεν είναι πινακίδα αυτοκινήτου. Δεν είναι barcode. Δεν είναι ουδέτερο δεδομένο. Είναι η πρώτη ύλη της δημόσιας ύπαρξής μας. Με αυτό εμφανιζόμαστε στον κόσμο πριν καν μιλήσουμε. Και ακριβώς γι’ αυτό η χρήση του ως εργαλείου ελέγχου δεν μπορεί να αντιμετωπίζεται σαν άλλη μία τεχνολογική διευκόλυνση.

Στη Βρετανία, η συζήτηση δεν περιορίζεται στα καταστήματα. Η χρήση ζωντανής αναγνώρισης προσώπου από την αστυνομία έχει ήδη περάσει από δικαστικές δοκιμασίες, με το Ανώτατο Δικαστήριο του Λονδίνου να απορρίπτει πρόσφατα προσφυγή κατά της πολιτικής της Μητροπολιτικής Αστυνομίας, κρίνοντας ότι διαθέτει επαρκείς προβλέψεις και εγγυήσεις.

Μπορεί, λοιπόν, κάτι να είναι νόμιμο. Το ερώτημα όμως παραμένει: είναι και κοινωνικά ανεκτό χωρίς σοβαρή συζήτηση; Είναι αρκετό να μας λένε ότι υπάρχουν εγγυήσεις, όταν οι ίδιοι οι πολίτες συχνά δεν ξέρουν πότε σαρώνεται το πρόσωπό τους, πού πηγαίνουν τα δεδομένα τους, ποιος τα ελέγχει, πόσο μένουν αποθηκευμένα και πώς διορθώνεται ένα λάθος;

Το πιο ανησυχητικό με τέτοιες τεχνολογίες δεν είναι πάντα η θεαματική κατάχρηση. Είναι η καθημερινή εξοικείωση. Στην αρχή μάς φαίνεται υπερβολικό. Μετά το θεωρούμε αναγκαίο. Ύστερα πρακτικό. Στο τέλος αυτονόητο.

Κάπως έτσι μπαίνουν στη ζωή μας οι πιο βαθιές αλλαγές: όχι σαν βίαιη τομή, αλλά σαν μικρή διευκόλυνση. Μια κάμερα ακόμη. Ένας έλεγχος ακόμη. Ένα «για την προστασία σας» ακόμη. Και μετά, όταν κοιτάξουμε πίσω, αναρωτιόμαστε πότε ακριβώς αποδεχτήκαμε ότι ο δημόσιος χώρος μπορεί να λειτουργεί σαν διάδρομος ελέγχου.

Στην Ελλάδα η συζήτηση αυτή πρέπει να γίνει πριν βρεθούμε μπροστά σε τετελεσμένα. Έχουμε μια γνωστή αδυναμία: πρώτα συνηθίζουμε μια πρακτική και μετά αναζητούμε κανόνες. Πρώτα εγκαθίσταται η λογική και μετά εμφανίζεται ο δημόσιος διάλογος. Και συνήθως, όταν έρχεται ο διάλογος, έχει ήδη αργήσει.

Δεν είναι τεχνοφοβία να ζητάς όρια, δεν είναι συντηρητισμός να ζητάς λογοδοσία, δεν είναι αφέλεια να υπερασπίζεσαι το δικαίωμα να κινείσαι στον δημόσιο χώρο χωρίς να μετατρέπεσαι αυτομάτως σε δεδομένο. Αντιθέτως, αυτό είναι το ελάχιστο μιας σοβαρής δημοκρατικής συζήτησης.

Η τεχνολογία δεν είναι ουρανός που μας πέφτει στο κεφάλι. Είναι επιλογή. Κάποιοι την αγοράζουν, κάποιοι την εγκαθιστούν, κάποιοι τη νομιμοποιούν, κάποιοι κερδίζουν από αυτή, κάποιοι την υφίστανται. Άρα χρειάζεται πολιτική απόφαση, δημόσιος έλεγχος και σαφή όρια.

Ποιος αποφασίζει ποιος μπαίνει σε μια λίστα υπόπτων; Ποιος ελέγχει αν τα δεδομένα είναι σωστά; Πώς ενημερώνεται κάποιος ότι έχει ταυτοποιηθεί λάθος; Πόσο γρήγορα διαγράφεται ένα λανθασμένο αρχείο; Πού μπορεί να προσφύγει ένας πολίτης χωρίς να χρειαστεί να γίνει ο ίδιος ερευνητής της αθωότητάς του;

Και εδώ δεν μιλάμε για λεπτομέρειες ειδικών αλλά για τον πυρήνα του ζητήματος. Γιατί πίσω από κάθε «σφάλμα συστήματος» υπάρχει μια ανθρώπινη ιστορία. Ένας άνθρωπος που μπορεί να αποφύγει μετά ένα κατάστημα. Να φοβηθεί ένα βλέμμα ασφαλείας. Να νιώσει ότι η αξιοπρέπειά του κρεμάστηκε από μια οθόνη. Να πρέπει να εξηγήσει στην οικογένειά του ότι δεν έκανε τίποτα. Να κουβαλά μια υποψία που δεν του ανήκε ποτέ.

Και ίσως αυτό είναι που ξεχνάμε πιο εύκολα. Η τεχνολογία έχει πάντα ανθρώπινες συνέπειες, ακόμη κι όταν μιλάει με ψυχρή γλώσσα. Η φράση «αν δεν έχεις κάτι να κρύψεις, δεν έχεις κάτι να φοβηθείς» ακούγεται ακόμη δελεαστική σε πολλούς. Μόνο που είναι μια φράση που αντιστρέφει ύπουλα το βάρος. Σε μια ελεύθερη κοινωνία δεν οφείλει ο πολίτης να εξηγήσει γιατί θέλει ιδιωτικότητα. Ο μηχανισμός ελέγχου οφείλει να εξηγήσει γιατί τη χρειάζεται, μέχρι πού θα φτάσει και ποιος θα τον σταματήσει.

Η ασφάλεια είναι δικαίωμα. Αλλά δεν είναι λευκή επιταγή. Δεν μπορεί να χρησιμοποιείται ως μαγική λέξη που ακυρώνει κάθε άλλη αξία: την ελευθερία, την ιδιωτικότητα, την αξιοπρέπεια, την ανωνυμία της καθημερινής κίνησης.

Γιατί υπάρχει και αυτό το δικαίωμα, όσο κι αν σπάνια το λέμε: να περπατάς χωρίς να σε διαβάζουν. Να μπαίνεις σε έναν χώρο χωρίς να προηγείται το αρχείο σου. Να υπάρχεις πριν σε αναλύσουν. Να είσαι άνθρωπος πριν γίνεις εικόνα προς επεξεργασία.

Αν δεν βάλουμε αυτή τη συζήτηση τώρα, θα τη βρούμε αργότερα μπροστά μας πολύ πιο δύσκολη. Και τότε, όπως συμβαίνει συχνά, θα μας πουν ότι είναι αργά, ότι τα συστήματα υπάρχουν ήδη, ότι η κοινωνία τα έχει αποδεχτεί, ότι δεν γίνεται να γυρίσουμε πίσω.

Μόνο που δεν χρειάζεται να γυρίσουμε πίσω. Χρειάζεται να μη βαδίσουμε μπροστά με κλειστά μάτια. Η πρόοδος δεν μετριέται μόνο με το τι μπορεί να κάνει η τεχνολογία. Μετριέται και με το τι αποφασίζουμε εμείς ότι δεν πρέπει να της επιτρέψουμε.
Και το πρόσωπό μας, όσο παλιό κι αν ακούγεται, πρέπει να παραμείνει κάτι περισσότερο από υλικό για σάρωση. Πρέπει να παραμείνει πρόσωπο. Δηλαδή παρουσία, αξιοπρέπεια, ελευθερία και όχι εισιτήριο ελέγχου και μία μόνιμη υποψία. Όχι ένα ακόμη αρχείο σε μια βάση δεδομένων που κάποτε, κάπου, μπορεί να κάνει λάθος άνθρωπο.

Η «Πελοπόννησος» και το pelop.gr σε ανοιχτή γραμμή με τον Πολίτη

Η φωνή σου έχει δύναμη – στείλε παράπονα, καταγγελίες ή ιδέες για τη γειτονιά σου.

Viber: +306909196125