ChatGPT: Πόσο ασφαλές είναι τελικά;

Η ραγδαία εξάπλωση της τεχνητής νοημοσύνης έχει καταστήσει το ChatGPT ένα από τα πιο δημοφιλή «ai εργαλεία», για εκατομμύρια χρήστες παγκοσμίως. Η χρήση του έχει γίνει καθημερινότητα για πολλούς, αλλά πόσο σίγουροι είμαστε για την ασφάλεια των δεδομένων μας;

Για να παραμείνετε ασφαλείς,
αποφύγετε «διά ροπάλου» τα παρακάτω…

Διαβάστε τις παρακάτω χρήσιμες οδηγίες, για το τι ΔΕΝ πρέπει ποτέ να μοιράζεστε με την τεχνητή νοημοσύνη και πώς να προστατεύσετε την ιδιωτικότητά σας.


Η «αθέατη» συλλογή δεδομένων από την OpenAI

Από τη σύνταξη email μέχρι τη δημιουργία κώδικα και εικόνων, η πλατφόρμα της OpenAI προσφέρει εντυπωσιακές δυνατότητες. Ωστόσο, πίσω από την ευκολία χρήσης κρύβεται ένα κρίσιμο ερώτημα:

«Πόσο ασφαλή είναι τα δεδομένα μας;»

Η OpenAI, ως ένας από τους μεγαλύτερους παίκτες στον τομέα της τεχνολογίας, μέσω του ChatGPT, συλλέγει τεράστιους όγκους πληροφοριών, που δεν προστατεύονται πάντα με τον τρόπο που φανταζόμαστε.

Κάθε φορά που πληκτρολογείτε ένα ερώτημα ή ανεβάζετε ένα αρχείο στο ChatGPT, οι πληροφορίες αυτές αποθηκεύονται και επεξεργάζονται. Το μεγάλο ζήτημα είναι ότι η OpenAI χρησιμοποιεί αυτά τα δεδομένα για την εκπαίδευση των γλωσσικών της μοντέλων (LLM).

Αυτό σημαίνει ότι οι προσωπικές σας ανησυχίες, τα επαγγελματικά σας σχέδια ή ακόμα και ευαίσθητα ιατρικά δεδομένα μπορεί να καταλήξουν ως «εκπαιδευτικό υλικό» ενός πολύπλοκου συστήματος.

Παρά τις επιλογές «εξαίρεσης από την εκπαίδευση» που προσφέρονται, οι συνομιλίες εξακολουθούν να καταγράφονται

Θα πρέπει επίσης να γνωρίζετε ότι σε περίπτωση που υποβάλετε κάποιο σχόλιο ή αναφορά (feedback) προς την AI πλατφόρμα, οι διάλογοι με το chatbot μπορεί να εξεταστούν ακόμη και από ανθρώπους – ελεγκτές.

Τα δεδομένα αυτά δεν καλύπτονται από «κρυπτογράφηση μηδενικής πρόσβασης/γνώσης» (zero access encryption). Γεγονός που σημαίνει ότι η εταιρεία, οι επιχειρηματικοί της εταίροι ή ακόμη και κυβερνητικές υπηρεσίες θα μπορούσαν θεωρητικά να αποκτήσουν πρόσβαση σε αυτά.


Κρυπτογράφηση, κίνδυνοι διαρροής & διαφημίσεις

Ένα από τα πιο ανησυχητικά περιστατικά σημειώθηκε τον Ιούλιο του 2025, όταν χιλιάδες κοινόχρηστες συνομιλίες του ChatGPT εμφανίστηκαν στα αποτελέσματα αναζήτησης της Google. Αυτό εξέθεσε προσωπικές ανταλλαγές χρηστών στο ευρύ κοινό, αποδεικνύοντας πόσο εύκολα μπορούν να διαρρεύσουν πληροφορίες που θεωρούσαμε ιδιωτικές.

Για τις επιχειρήσεις, η χρήση του ChatGPT ενέχει σημαντικούς νομικούς και οικονομικούς κινδύνους. Καθώς η OpenAI είναι Αμερικανική εταιρεία, τα δεδομένα υπόκεινται στη δικαιοδοσία των ΗΠΑ, γεγονός που μπορεί να έρχεται σε σύγκρουση με Ευρωπαϊκούς κανονισμούς, όπως ο GDPR.

Επιπλέον, το 2026 σηματοδότησε μια νέα εποχή για την πλατφόρμα, με την εισαγωγή διαφημίσεων εντός της εφαρμογής για τους χρήστες του δωρεάν πακέτου.

Παρόλο που η OpenAI διαβεβαιώνει ότι οι διαφημίσεις δεν επηρεάζουν τις απαντήσεις, η κίνηση αυτή ακολουθεί το κλασικό μοντέλο των «Big Tech» εταιρειών. Όπου η διαφήμιση οδηγεί σταδιακά σε εντατικότερη παρακολούθηση και δημιουργία συμπεριφορικών προφίλ.


Τι δεν πρέπει ποτέ να μοιράζεστε με το ChatGPT

Για να παραμείνετε ασφαλείς, θα πρέπει να χρησιμοποιείτε το ChatGPT και γενικότερα όλα αυτά τα AI εργαλεία με προσοχή. Να αποφεύγετε «διά ροπάλου» να μοιράζεστε πληροφορίες, όπως τις παρακάτω:

  • Κωδικούς πρόσβασης: Διαπιστευτήρια πρόσβασης σε διάφορες διαδικτυακές υπηρεσίες, κλειδιά ή κωδικούς ελέγχου ταυτότητας δύο παραγόντων (2FA).
  • Στοιχεία από κυβερνητικά έγγραφα: Αριθμοούς δελτίων αστυνομικής ταυτότητας, διαβατηρίων, ΑΦΜ, ΑΜΚΑ κλπ.
  • Οικονομικά στοιχεία: Αριθμούς πιστωτικών/χρεωστικών καρτών, αριθμούς τραπεζικών λογαριασμών ή στοιχεία ηλεκτρονικών πορτοφολιών.
  • Ιατρικό ιστορικό: Διαγνώσεις, φαρμακευτικές αγωγές ή αποτελέσματα εξετάσεων που συνδέονται με την ταυτότητά σας.
  • Επαγγελματικά μυστικά: Εμπιστευτικές συμβάσεις – πληροφορίες, λίστες πελατών και μη δημοσιευμένες αναφορές.
  • Προσωπικές πληροφορίες: Διεύθυνση κατοικίας, τηλέφωνα, ιδιωτικές – προσωπικές φωτογραφίες κλπ.


Προστασία της ιδιωτικότητας σας

Όλα τα παραπάνω δεν σημαίνουν ότι πρέπει να σταματήσετε εντελώς τη χρήση εργαλείων τεχνητής νοημοσύνης. Αρκεί να υιοθετήσετε ορισμένες ασφαλείς συνήθειες, έτσι ώστε να προστατεύετε την ιδιωτικότητα σας.

  • Ανώνυμα παραδείγματα: Αφαιρέστε κάθε αναγνωρίσιμο στοιχείο από τα αιτήματα και τις συνομιλίες σας με το chatbot, χρησιμοποιώντας ανώνυμα παραδείγματα.
  • Προσέχετε τα αρχεία που ανεβάζετε: Αν χρησιμοποιείτε τη δυνατότητα μεταφόρτωσης εγγράφων (PDF, εικόνες, κώδικα), βεβαιωθείτε ότι δεν εμφανίζονται προσωπικά δεδομένα σας και άλλες ευαίσθητες πληροφορίες.
  • Ιστορικό συνομιλιών: Ελέγξτε τις ρυθμίσεις απορρήτου του λογαριασμού σας και απενεργοποιήστε το ιστορικό συνομιλιών και την εκπαίδευση του μοντέλου.
  • Διαγραφή συνομιλιών: Μην αφήνετε να συσσωρεύονται παλιές συνομιλίες σας. Διαγράφοντας ό,τι δεν χρειάζεστε πια, μειώνετε τον όγκο των πληροφοριών που παραμένουν συνδεδεμένες με τον λογαριασμό σας.
  • Όλα είναι δημόσιος χώρος: Μη γράφετε τίποτα που δεν θα θέλατε να διαβάσει ένας άγνωστος. Σκεφτείτε το chatbot περισσότερο σαν μια ανοιχτή συζήτηση και λιγότερο σαν ένα προσωπικό – ιδιωτικό σημειωματάριο.

Κι αν στο τέλος της ημέρας η προστασία της ιδιωτικότητας είναι η βασική προτεραιότητα σας, ίσως ήρθε η ώρα να αναζητήσετε εναλλακτικές λύσεις… 😉


👉 Δείτε: Πώς η ΕΥΠ παρακολουθεί τα κινητά μας

Μοιραστείτε το