Μην κάνετε το λάθος που ίσως σας «χαλάσει» τη ζωή: Αυτά τα στοιχεία για κανένα λόγο δεν τα δίνουμε στο AI

Η τεχνητή νοημοσύνη έχει μπει για τα καλά στη ζωή μας. Βέβαια εφόσον κάποιος τη χρησιμοποιεί σωστά, μπορεί να αποδειχθεί χρήσιμο εργαλείο. Όμως, τα ερωτήματα που τίθενται αφορούν σε ευαίσθητα θέματα, οικονομικής φύσης, μπορεί η χρήση chatbot να ενέχει κινδύνους

Μην κάνετε το λάθος που ίσως σας «χαλάσει» τη ζωή: Αυτά τα στοιχεία για κανένα λόγο δεν τα δίνουμε στο AI

«Γεια σου, μπορείς να μου εξηγήσεις πώς λειτουργεί αυτό», « σε παρακαλώ μπορείς να βρεις τη διεύθυνση αυτού του καταστήματος;», « μπορείς να μου δώσεις ιδέες για αυτό», «έχεις να προτείνεις εστιατόρια σε αυτή την περιοχή;»… Αυτά είναι μόνο μερικά από τα χιλιάδες ερωτήματα που θέτουν καθημερινά οι χρήστες της τεχνητής νοημοσύνης. Το λέμε οι ενεργοί χρήστες μόνο του ChatGPT για το 2026 εκτιμώνται στους 900 εκατομμύρια εβδομαδιαίως, με περίπου 2,5-2,8 δισ. ερωτήματα την ημέρα, δηλαδή σχεδόν 1.7–2 εκατ. ανά λεπτό!

«Εξοικονομώ»: Ποια προγράμματα παίρνουν παράταση έως το καλοκαίρι του 2026
Είναι λοιπόν δεδομένο ότι η τεχνητή νοημοσύνη έχει μπει για τα καλά στη ζωή μας. Βέβαια εφόσον κάποιος τη χρησιμοποιεί σωστά, μπορεί να αποδειχθεί χρήσιμο εργαλείο. Όμως, τα ερωτήματα που τίθενται αφορούν σε ευαίσθητα θέματα, οικονομικής φύσης, μπορεί η χρήση chatbot να ενέχει κινδύνους.

Όπως αναφέρει η Washington Post, σύμφωνα με έρευνα της Cisco, το 29% των χρηστών παγκοσμίως έχει εισάγει ευαίσθητες πληροφορίες, ακόμη και οικονομικά ή ιατρικά δεδομένα, σε chatbots, παρότι το 84% ανησυχεί ότι αυτά μπορεί να διαρρεύσουν. Παράλληλα, μελέτη του Πανεπιστημίου Στάνφορντ που ανέλυσε τις πολιτικές απορρήτου μεγάλων εταιριών, όπως Amazon, Google, Meta, Microsoft και OpenAI, έδειξε ότι όλες χρησιμοποιούν τις συνομιλίες για εκπαίδευση των μοντέλων τους, ενώ κάποιες διατηρούν τα δεδομένα επ’ αόριστον. Αυτό σημαίνει ότι, είτε από σχεδιασμό είτε από αμέλεια, τα δεδομένα των χρηστών μπορεί να αξιοποιηθούν με τρόπους που δε μπορούμε να φανταστούμε.

Την ίδια στιγμή, η χρήση τεχνητής νοημοσύνης για οικονομικές συμβουλές αυξάνεται ραγδαία. Σύμφωνα με την TD Bank, το ποσοστό των Αμερικανών που τη χρησιμοποιούν για τα οικονομικά τους αυξήθηκε από 10% σε 55% μέσα σε έναν χρόνο, με τα ποσοστά να φτάνουν ακόμη υψηλότερα στους νέους, αγγίζοντας το 77% για τη Γενιά Ζ και το 72% για τους millennials.

–Ονοματεπώνυμο, διεύθυνση, αριθμός ταυτότητας ή κοινωνικής ασφάλισης είναι τα σημαντικότερα στοιχεία που δεν πρέπει να αναφέρουμε σε «συνομιλία» μας με την τεχνητή νοημοσύνη. Ακόμα κι αν μια πλατφόρμα ζητά στοιχεία για σύνδεση, αυτά δεν πρέπει να εμφανίζονται. Αυτό ισχύει και στη περίπτωση που κάποιος επαγγελματίας ζητήσει τα στοιχεία μας με σκοπό να τα καταχωρήσει στο δικό του σύστημα. Καθώς δεν είναι γνωστό αν το σύστημα αυτό τηρεί πρωτόκολλα ασφαλείας προτιμότερο είναι να μην τα μοιραζόμαστε.

-Οι πληροφορίες γύρω από το επάγγελμα και κυρίως το χώρο εργασίας μας. Τέτοιες πληροφορίες μπορούν να χρησιμοποιηθούν σε απάτες τύπου phishing, όπου οι επιτήδειοι αξιοποιούν λεπτομέρειες για να φαίνονται αξιόπιστοι και να εξαπατούν τα θύματά τους. Το chatbot δε χρειάζεται να γνωρίζει πού εργαζόμαστε για να μας δώσει συμβουλές. Μπορούμε απλώς να υποβάλουμε γενικές ερωτήσεις που δεν μπορούν να συνδεθούν άμεσα με εμάς.

-Δεν αποκαλύπτουμε τα ακριβή ποσά χρεών. Αυτή η πληροφορία, σε συνδυασμό με άλλα δεδομένα που έχουν διαρρεύσει, είναι «θησαυρός» για τους απατεώνες που μπορεί να μας καλέσουν και να παριστάνουν τους υπαλλήλους τραπεζικού καταστήματος. Στην περίπτωση που θέλουμε να στηριχθούμε στην απάντηση της τεχνητής νοημοσύνης -υπενθυμίζεται ότι δεν είναι αλάνθαστη και επομένως προτιμότερο είναι να απευθυνόμαστε σε επαγγελματία- χρησιμοποιούμε «στρογγυλά» ποσά και αποκρύπτουμε άλλα στοιχεία.

-Δεν πρέπει να αποκαλύπτουμε αναλυτικά τα έξοδά μας. Ακόμα και μικρές λεπτομέρειες, όπως συγκεκριμένα ποσά αγορών, μπορούν να χρησιμοποιηθούν για να μας εξαπατήσουν. Ένας απατεώνας που προσποιείται ότι καλεί από την τράπεζα θα μπορούσε για να μας πείσει για την ταυτότητά του αναφέροντάς μας συγκεκριμένες αγορές.

-Τέλος, δε ζητούμε βοήθεια από την τεχνητή νοημοσύνη αναρτώντας έγγραφα, όπως φορολογικές δηλώσεις ή άλλα αρχεία που περιέχουν σημαντικές πληροφορίες, οι οποίες οδηγούν στην ταυτοποίησή μας, ακόμη κι αν έχουμε «σβήσει» κάποια στοιχεία. Οι ειδικοί τονίζουν: όπως δε θα δίναμε τέτοια δεδομένα σε έναν άγνωστο, έτσι δεν πρέπει να τα δίνουμε στην τεχνητή νοημοσύνη.

Το παράδοξο της ιδιωτικότητας
Σύμφωνα με πρόσφατη επιστημονική έρευνα, συναντάται συχνά το λεγόμενο «παράδοξο της ιδιωτικότητας».

Παρότι οι χρήστες ανησυχούν για την ασφάλεια των προσωπικών τους δεδομένων, συνεχίζουν να τα μοιράζονται κρίσιμες πληροφορίες με συστήματα τεχνητής νοημοσύνης. Όπως αναφέρει η μελέτη που δημοσιεύθηκε στο Online Information Review (OIR) και διενεργήθηκε από επιστήμονες του Πανεπιστημίου Τόνγκτζι στη Σαγκάη, το φαινόμενο αποδίδεται στο γεγονός ότι τα chatbots δημιουργούν την αίσθηση ανθρώπινης επικοινωνίας, κάνοντας τους χρήστες να νιώθουν μεγαλύτερη οικειότητα και εμπιστοσύνη από ό,τι θα έπρεπε.

Αυτή η αίσθηση οικειότητας μπορεί να οδηγήσει λανθασμένα τους χρήστες να αποκαλύψουν προσωπικές πληροφορίες σαν να μιλούν σε άνθρωπο και όχι σε σύστημα που καταγράφει δεδομένα.

Η μελέτη ανέλυσε τη συμπεριφορά 480 χρηστών και έδειξε ότι οι λογικοί παράγοντες, όπως το όφελος κι η ευκολία, όσο και οι συναισθηματικοί, όπως η αίσθηση εμπιστοσύνης και σύνδεσης, επηρεάζουν τον άνθρωπο να μοιραστεί ευαίσθητα δεδομένα. Όπως αναφέρει χαρακτηριστικά η έκθεση, «οι συναισθηματικοί παράγοντες καθοδηγούν τις αποφάσεις περί απορρήτου, με τους χρήστες να είναι πιο πιθανό να αποκαλύψουν προσωπικές πληροφορίες με βάση θετικές εμπειρίες και ενασχόληση με το ChatGPT. Αυτό επιβεβαιώνει την ύπαρξη του “παράδοξου απορρήτου”».

Πώς μπορούμε να χρησιμοποιούμε με ασφάλεια την AI
Η τεχνητή νοημοσύνη είναι χρήσιμη όταν χρησιμοποιείται σωστά. Μπορούμε να την ρωτήσουμε γενικές πληροφορίες, όπως τα όρια εισφορών σε συνταξιοδοτικά προγράμματα ή τους πιο συμβατούς με τις ανάγκες μας τρόπους αποπληρωμής χρεών. Σημασία έχει να αποφύγουμε οποιαδήποτε πληροφορία μπορεί να συνδεθεί άμεσα με εμάς.

Επιπλέον, μπορούμε να ελέγξουμε τις ρυθμίσεις και να απενεργοποιήσουμε τη μνήμη, ή να επιλέξουμε την εκδοχή κατά την οποία τα δεδομένα δεν αντλούνται για την εκπαίδευση του μοντέλου και οι προσωρινές συνομιλίες δε θα χρησιμοποιηθούν για τη βελτίωσή του. Με λίγα λόγια, όσο λιγότερα προσωπικά δεδομένα μοιραζόμαστε, τόσο περισσότερο προστατευόμαστε.

Η «Πελοπόννησος» και το pelop.gr σε ανοιχτή γραμμή με τον Πολίτη

Η φωνή σου έχει δύναμη – στείλε παράπονα, καταγγελίες ή ιδέες για τη γειτονιά σου.

Viber: +306909196125