Νομικές προκλήσεις της συμμόρφωσης των συστημάτων παραγωγικής Τεχνητής Νοημοσύνης με τις απαιτήσεις διαφάνειας και νομιμότητας του Γενικού Κανονισμού για την Προστασία των Δεδομένων.
Legal challenges of the compliance of generative artificial intelligence systems with the requirements of transparency and lawfulness under the General Data Protection Regulation (english)
Η παρούσα διπλωματική εργασία διερευνά τις νομικές προκλήσεις που ανακύπτουν από τη λειτουργία των διαδικτυακών συστημάτων παραγωγικής Τεχνητής Νοημοσύνης (ΤΝ) σε σχέση με τις απαιτήσεις διαφάνειας και παροχής ενημέρωσης του Γενικού Κανονισμού Προστασίας Δεδομένων (EE) 2016/697 (ΓΚΠΔ) και του Κανονισμού (ΕΕ) 2024/1689 για την Τεχνητή Νοημοσύνη (Κανονισμός για την ΤΝ). Μέσω δομημένης και συστηματικής ανάλυσης των πολιτικών προστασίας προσωπικών δεδομένων και ιδιωτικότητας δώδεκα (12) παρόχων συστημάτων παραγωγικής ΤΝ μεταξύ των οποίων οι OpenAI, Google, Microsoft, Meta, Anthropic, σε συνδυασμό με την αξιολόγηση των απαντήσεων των ιδίων των συστημάτων ΤΝ στις αντίστοιχες σχετικές ερωτήσεις (prompts), η έρευνα αξιολογεί σε βάθος τη συμμόρφωση των εν λόγω συστημάτων ΤΝ με τους κανόνες διαφάνειας και νόμιμης επεξεργασίας των προσωπικών δεδομένων.
Το θεωρητικό πλαίσιο της διπλωματικής εργασίας περιλαμβάνει αφενός την εννοιολογική οριοθέτηση της ΤΝ, των αλγορίθμων μηχανικής μάθησης και των νευρωνικών δικτύων που συγκροτούν τα σύγχρονα συστήματα παραγωγικής ΤΝ, και αφετέρου την ανάλυση των υποχρεώσεων διαφάνειας και ενημέρωσης των υποκειμένων των δεδομένων για την επεξεργασία των δεδομένων τους όπως απορρέουν από τα άρθρα 12-14 ΓΚΠΔ, και 13, 50, 53 και 86 του Κανονισμού για την ΤΝ.
Στο πλαίσιο της εμπειρικής έρευνας αναπτύχθηκε συγκεκριμένη μεθοδολογική προσέγγιση για την επιλογή των εξεταζόμενων συστημάτων παραγωγικής ΤΝ και τον καθορισμό συγκεκριμένων σημείων ελέγχου της συμμόρφωσης με τις απαιτήσεις διαφάνειας του ΓΚΠΔ. Τα ευρήματα της εμπειρικής έρευνας, τα οποία βασίστηκαν στην εφαρμογή της μεθοδολογικής προσέγγισης, αναδεικνύουν σημαντικές ασυμβατότητες: η πλειονότητα των παρόχων δεν παρέχει καμία ενημέρωση για τη λογική της αυτοματοποιημένης επεξεργασίας, προσδιορίζει τους σκοπούς της επεξεργασίας με ασαφή και γενικόλογο τρόπο χωρίς ουσιαστική τεκμηρίωση της επιλογής της αντίστοιχης νομικής βάσης, διατηρεί τα δεδομένα για μεγάλα χρονικά διαστήματα, και συνάγει συμπερασματικά δεδομένα χωρίς γνώση ή έλεγχο από τα υποκείμενα των δεδομένων. Ιδίως όσον αφορά τα συστήματα ΤΝ που εντάσσονται σε ευρύτερα σύνθετα οικοσυστήματα ψηφιακών υπηρεσιών (Google, Microsoft, Meta, xAI), παρατηρούνται περιπτώσεις συγκέντρωσης εξαιρετικά μεγάλου όγκου δεδομένων, δυνατότητας επαναταυτοποίησης από ανωνυμοποιημένα δεδομένα μέσω της χρήσης έμμεσων αναγνωριστικών, δυσχέρεια εντοπισμού στις πολλαπλές πολιτικές των σημείων και στοιχείων που αφορούν το αντίστοιχο σύστημα παραγωγικής ΤΝ και απουσία γλωσσικής προσβασιμότητας για μη αγγλόφωνους χρήστες.
Η διπλωματική εργασία καταλήγει σε συμπεράσματα σχετικά με τα όρια προσαρμογής του υφιστάμενου ρυθμιστικού πλαισίου στις ιδιαιτερότητες του σύγχρονου τεχνολογικού περιβάλλοντος που χαρακτηρίζεται από την ικανότητα αυτονομημένης λειτουργίας των συστημάτων ΤΝ που αλληλεπιδρούν με τα υποκείμενα των δεδομένων και υποστηρίζουν τη λήψη αποφάσεων, την ασύμμετρη κατανομή οφέλους μεταξύ παρόχων και χρηστών, και τη μετεξέλιξη των προσωπικών δεδομένων σε στρατηγικό οικονομικό πόρο. Προκειμένου να διαμορφωθεί ένα νέο περιβάλλον ανθρωποκεντρικής και αξιόπιστης ΤΝ, η οποία θα υποστηρίζει και θα ενισχύει τις ανθρώπινες δεξιότητες και την πρόοδο και ανάπτυξη των κοινωνιών, απαιτείται διαφάνεια σχετικά με τις πηγές και τη χρήση των δεδομένων εκπαίδευσης, λειτουργίας και επανεκπαίδευσης, τον σχεδιασμό και την υλοποίηση των αλγορίθμων, τα σφάλματα προκατάληψης που μπορεί να εμφανίσουν τα συστήματα ΤΝ και την αντιμετώπισή τους, καθώς και τις πιθανές επιπτώσεις στα ανθρώπινα δικαιώματα και ελευθερίες. Το δικαίωμα στην προστασία των προσωπικών δεδομένων μπορεί να ασκηθεί ουσιαστικά σε ένα τεχνολογικό περιβάλλον όπου τα συστήματα παραγωγικής ΤΝ είναι διαφανή, επεξηγήσιμα, συνεπή, ελέγξιμα και προσβάσιμα, ως μέσα διασφάλισης δίκαιης επεξεργασίας των δεδομένων προσωπικού χαρακτήρα.
This master’s thesis investigates the legal challenges arising from the operation of online generative Artificial Intelligence (AI) systems in relation to the transparency and information requirements set out in the General Data Protection Regulation (EU) 2016/697 (GDPR) and Regulation (EU) 2024/1689 on Artificial Intelligence (the AI Act). Through a structured and systematic analysis of the personal data protection and privacy policies of twelve (12) providers of generative AI systems—including OpenAI, Google, Microsoft, Meta, and Anthropic—combined with an assessment of the responses provided by the AI systems themselves to corresponding relevant questions (prompts), the research offers an in-depth evaluation of the extent to which such AI systems comply with rules on transparency and lawful processing of personal data.
The thesis’s theoretical framework comprises, on the one hand, a conceptual delineation of AI, machine-learning algorithms, and neural networks underpinning contemporary generative AI systems, and, on the other hand, an analysis of the transparency and information obligations owed to data subjects regarding the processing of their data, as derived from Articles 12–14 GDPR and Articles 13, 50, 53, and 86 of the AI Act.
Within the empirical component of the study, a specific methodological approach was developed for selecting the generative AI systems examined and for defining concrete checkpoints to assess compliance with the GDPR’s transparency requirements. The findings of the empirical analysis, based on the application of this methodological approach, reveal significant incompatibilities: the majority of providers offer no information on the logic of automated processing; they define processing purposes in vague and generic terms without substantively substantiating the choice of the corresponding legal basis; they retain data for extended periods; and they derive inferred data without the knowledge of, or control by, the data subjects. In particular, with respect to AI systems integrated into broader, complex digital service ecosystems (Google, Microsoft, Meta, xAI), the study identifies instances of the aggregation of exceptionally large volumes of data, the possibility of re-identification from anonymised datasets through the use of indirect identifiers, difficulties in locating system-specific information across multiple policies, and the absence of linguistic accessibility for non-English-speaking users.
The thesis concludes with observations on the limits of adapting the existing regulatory framework to the specificities of the contemporary technological environment, which is characterised by the capacity for autonomous operation of AI systems that interact with data subjects and support decision-making, an asymmetric distribution of benefits between providers and users, and the transformation of personal data into a strategic economic resource. In order to foster a new landscape of human-centric and trustworthy AI—capable of supporting and enhancing human skills as well as societal progress and development—transparency is required regarding the sources and use of training, operational, and retraining data; the design and implementation of algorithms; potential bias-related errors and their mitigation; and possible impacts on human rights and freedoms. The right to the protection of personal data can be meaningfully exercised in a technological environment in which generative AI systems are transparent, explainable, consistent, auditable, and accessible, as safeguards for the fair processing of personal data.
Κύριο μέρος της Διπλωματικής Description: ΤΕΛΙΚΗ ΥΠΟΒΛΗΘΕΙΣΑ_ Αντιγραφή.pdf (pdf)
Book Reader Size: 5.3 MB
Νομικές προκλήσεις της συμμόρφωσης των συστημάτων παραγωγικής Τεχνητής Νοημοσύνης με τις απαιτήσεις διαφάνειας και νομιμότητας του Γενικού Κανονισμού για την Προστασία των Δεδομένων. - Identifier: 236949
Internal display of the 236949 entity interconnections (Node labels correspond to identifiers)