Η αποκάλυψη που άναψε φωτιές
Δημοσίευμα του Futurism.com αποκάλυψε ότι η OpenAI μπορεί να σαρώνει συνομιλίες στο ChatGPT και να τις αναφέρει στις αρχές όταν κρίνεται πως υπάρχει απειλή σοβαρής βλάβης σε τρίτους. Η ίδια η εταιρεία το επιβεβαίωσε, σημειώνοντας πως σε τέτοιες περιπτώσεις μια εξειδικευμένη ομάδα εξετάζει το περιεχόμενο και ενδέχεται να το διαβιβάσει στην αστυνομία.
Παρά την πρακτική αυτή, οι Όροι Χρήσης δεν περιγράφουν ρητά τη δυνατότητα σάρωσης και αναφοράς. Σύμφωνα με τον υποψήφιο διδάκτορα Πληροφορικής, Βασίλη Ζωγράφο, η διαδικασία βασίζεται σε εσωτερικές πολιτικές ασφαλείας και όχι σε διαφανείς δεσμεύσεις προς τους χρήστες, κάτι που γεννά ερωτήματα για τη νομιμότητα και τη συγκατάθεση.
Σύγκρουση με το ευρωπαϊκό πλαίσιο
Στην Ευρώπη, ο GDPR απαιτεί σαφή ενημέρωση και συγκεκριμένη νομική βάση για την επεξεργασία προσωπικών δεδομένων. Η σάρωση συνομιλιών χωρίς ρητή συγκατάθεση ή δικαστική εντολή θεωρείται πιθανή παραβίαση. Έτσι, η πρακτική της OpenAI φαίνεται να συγκρούεται με το ευρωπαϊκό νομικό πλαίσιο.
Μετά τις επιθέσεις της 11ης Σεπτεμβρίου, ο Patriot Act έδωσε στις αρχές διευρυμένες δυνατότητες παρακολούθησης. Η πολιτική της OpenAI θυμίζει σε αρκετά σημεία αυτή τη φιλοσοφία: προληπτική παρακολούθηση, συνεργασία με τις αρχές και περιορισμένη ενημέρωση των χρηστών. Στην ΕΕ, ωστόσο, προτεραιότητα έχει η ιδιωτικότητα, οδηγώντας αναπόφευκτα σε τριβές.
Τα εργαλεία του χρήστη
Η OpenAI δίνει τη δυνατότητα στους χρήστες να απενεργοποιούν τη χρήση των συνομιλιών τους για εκπαίδευση μέσω των ChatGPT data controls. Ωστόσο, αυτό δεν αναιρεί τη συζήτηση γύρω από τη σάρωση για λόγους «δημόσιας ασφάλειας».
Το δίλημμα που μένει ανοιχτό
Η πρακτική της OpenAI φανερώνει το μεγάλο δίλημμα: προστασία της κοινωνίας ή προστασία της ιδιωτικότητας; Από τη μια, στόχος είναι η πρόληψη εγκληματικών πράξεων. Από την άλλη, οι χρήστες φοβούνται ότι ανοίγει η πόρτα σε ανεξέλεγκτη επιτήρηση και απώλεια εμπιστοσύνης προς την τεχνητή νοημοσύνη.