ARTIFICIAL INTELLIGENCE – ΤΕΧΝΗΤΗ ΝΟΗΜΟΣΥΝΗ
Όταν το ChatGPT παράγει απαντήσεις, υπάρχει κίνδυνος παραβίασης δικαιωμάτων πνευματικής ιδιοκτησίας π.χ. όταν αναπαράγει το περιεχόμενο βιβλίων.

Ενημέρωση και εξελίξεις
AI Update 3 – 22.06.2023
[Η ΤΝ είναι εδώ και θα μείνει. Ήδη επηρεάζει την ζωή μας και προβλέπεται ότι θα την επηρεάσει σε συγκλονιστικό βαθμό τα επόμενα χρόνια. Το «AI Update» της Athenian Herald, φιλοδοξεί να σας παρέχει κατά καιρούς, γρήγορη, ουσιαστική και περιεκτική ενημέρωση για τις σχετικές εξελίξεις και τους προβληματισμούς για το τεράστιο αυτό ζήτημα που, κατά γενική ομολογία, θα αλλάξει την ανθρωπότητα.]
Επιμέλεια: Ηλιάνα Θέμελη
ChatGPT και προσωπικά δεδομένα
Τα βασικά
Το ChatGPT είναι πρόγραμμα τεχνητής νοημοσύνης το οποίο βγήκε σε κυκλοφορία τον Νοέμβριο 2022 και έχει ήδη εκατομμύρια χρήστες. Συγκεκριμένα, είναι ένα γλωσσικό μοντέλο που αναπτύχθηκε από την εταιρεία OpenAI και βασίζεται στην generative artificial intelligence, δηλαδή στην τεχνητή νοημοσύνη που σκοπεύει στην παραγωγή ή δημιουργία νέου περιεχομένου ή πληροφοριών.
Από την στιγμή που βγήκε σε κυκλοφορία, το ChatGPT προκάλεσε ανησυχία για πιθανές παραβάσεις προσωπικών δεδομένων αφού υπάρχουν αμφιβολίες ως προς τη νομική βάση που δικαιολογεί την μαζική συλλογή και αποθήκευση προσωπικών δεδομένων που χρησιμοποιούνται για την εκπαίδευση των αλγορίθμων του.
Όταν το ChatGPTπαράγει μια απάντηση χρησιμοποιώντας αποσπάσματα πληροφοριών και δεδομένων για να συνθέσει αυτήν την απάντηση, υπάρχει ο κίνδυνος παραβίασης της ακεραιότητας των δεδομένων αφού οι πληροφορίες που κανείς κάνει διαθέσιμες δημόσια δεν πρέπει να αποκαλύπτονται ή χρησιμοποιούνται εκτός του πλαισίου στο οποίο δημιουργήθηκαν αρχικά.
Όταν το ChatGPT παράγει απαντήσεις, υπάρχει κίνδυνος παραβίασης δικαιωμάτων πνευματικής ιδιοκτησίας π.χ. όταν αναπαράγει το περιεχόμενο βιβλίων.
Οι πληροφορίες που εισάγει ο χρήστης για την παραγωγή περιεχομένου από το ChatGPT αποθηκεύονται στο σύστημα όπως αποθηκεύεται και η ίδια η συζήτηση με το σύστημα.
Εξελίξεις
Στις 31 Μαρτίου 2023 η ρυθμιστική αρχή προστασίας προσωπικών δεδομένων της Ιταλίας «Garante» αποφάσισε την απαγόρευση του ChatGPTλόγω πιθανών παραβιάσεων προσωπικών δεδομένων. Σύμφωνα με τις Ιταλικές αρχές, το ChatGPT υπέστη τον Μάρτιο παραβίαση των συνομιλιών και τρόπων πληρωμής των χρηστών και δεν επαληθεύει την ηλικία των χρηστών με αποτέλεσμα να εκθέτει τους ανηλίκους σε ακατάλληλες απαντήσεις.
Τον Απρίλιο αποκαταστήθηκε η πρόσβαση στο ChatGPT καθώς η OpenAI έλαβε διορθωτικά μέτρα που ικανοποίησαν την ιταλική ρυθμιστική αρχή.
Η αντίστοιχη ρυθμιστική αρχή της Ελβετίας (“FDPIC”) ανέφερε ότι συμβουλεύει τους χρήστες να ελέγχουν τους σκοπούς για τους οποίους γίνεται επεξεργασία προσωπικών δεδομένων πριν από την εισαγωγή κειμένου ή τη μεταφόρτωση εικόνων και ότι οι οργανισμοί πρέπει να διασφαλίζουν ότι τηρούνται οι απαιτήσεις προστασίας δεδομένων όταν χρησιμοποιούν εφαρμογές που υποστηρίζονται από τεχνητή νοημοσύνη. Αυτό περιλαμβάνει, σημείωσε η FDPIC, τη διασφάλιση της ενημέρωσης των χρηστών με διαφανή και κατανοητό τρόπο σχετικά με το ποια δεδομένα υποβάλλονται σε επεξεργασία, για ποιο σκοπό και με ποιον τρόπο.
Η αντίστοιχη ρυθμιστική αρχή της Γερμανίας ξεκίνησε έρευνα για τον τρόπο χρήσης προσωπικών δεδομένων από το ChatGPT.
Η γαλλική Εθνική Επιτροπή Πληροφορικής και Ελευθερίας (CNIL), δημοσίευσε την Τρίτη 16 Μαΐου ένα σχέδιο δράσης για την αντιμετώπιση των ανησυχιών σχετικά με την προστασία των προσωπικών δεδομένων που σχετίζονται με την Τεχνητή Νοημοσύνη, ιδίως λόγω εφαρμογών όπως το ChatGPT.
Η Ευρωπαϊκή Οργάνωση Καταναλωτών (BEUC), της οποίας είναι μέλος η Ελλάδα, κάλεσε τις εθνικές ρυθμιστικές αρχές της Ευρωπαϊκής Ένωσης να διενεργήσουν έρευνα για τους κινδύνους γύρω από την τεχνολογία του ChatGPT. Μάλιστα, δημιουργήθηκε εντός της Οργάνωσης ειδική ομάδα («task force») για να αναλύσει τους κινδύνους που θέτει το ChatGPT στην προστασία προσωπικών δεδομένων.
Η Ευρωπαϊκή Ένωση δουλεύει αυτή την στιγμή πάνω στο πρώτο νομικό πλαίσιο για την τεχνητή νοημοσύνη προκειμένου να αντιμετωπίσει τους κινδύνους στην ασφάλεια και στα θεμελιώδη ανθρώπινα δικαιώματα που προκαλούνται από την υπέρμετρη και αρρύθμιστη χρήση της τεχνητής νοημοσύνης.
Στις 14 Ιουνίου 2023, οι Ευρωβουλευτές υιοθέτησαν τη διαπραγματευτική τους θέση σχετικά με τον νομοθετικό κείμενο για την τεχνητή νοημοσύνη. Το Ευρωκοινοβούλιο θα ξεκινήσει τώρα συνομιλίες με το Συμβούλιο σχετικά με την τελική μορφή του κειμένου. Στόχος είναι να επιτευχθεί συμφωνία μέχρι το τέλος του τρέχοντος έτους.
Στις 21 Ιουνίου 2023 ανακοινώθηκε ότι το αμερικανικό Κογκρέσο θέτει ως προτεραιότητα τη θέσπιση κανόνων για την ανάπτυξη και τη χρήση της τεχνητής νοημοσύνης. Ο Chuk Schumer, γερουσιαστής της Νέας Υόρκης, ανέλαβε να παρουσιάσει το πιο ολοκληρωμένο ίσως σχέδιο μέχρι στιγμής για τον ασφαλή έλεγχο της Τεχνητής Νοημοσύνης, το SAFE Innovation Framework. Μπορείτε να βρείτε τον λόγο του εδώ.
Ευρωπαϊκός Οργανισμός για την Κυβερνοασφάλεια (ENISA), τεχνητή νοημοσύνη και προσωπικά δεδομένα
Την 1η Ιουνίου διοργανώθηκε εκδήλωση στη Λυών της Γαλλίας από την ENISA σε συνεργασία με τη Γενική Διεύθυνση της Ευρωπαϊκής Επιτροπής για τα δίκτυα επικοινωνιών, το περιεχόμενο και την τεχνολογία (DG Connect) και το Εθνικό Ινστιτούτο Έρευνας στην Ψηφιακή Επιστήμη και Τεχνολογία (INRIA). Θέμα της εκδήλωσης ήταν τα Προσωπικά Δεδομένα και η Τεχνητή Νοημοσύνη.
Αυτή η 11η διοργάνωση συγκέντρωσε συνολικά 26 ομιλητές και περισσότερους από 400 συμμετέχοντες τόσο με φυσική παρουσία όσο και εξ αποστάσεως.
Τα πάνελ των εμπειρογνωμόνων είχαν την ευκαιρία να εξετάσουν ορισμένα από τα πιο πιεστικά θέματα σε σχέση με τη διασφάλιση των προσωπικών δεδομένων, όπως:
- Αναδυόμενες τεχνολογίες για την προστασία των προσωπικών δεδομένων,
- Μηχανική μάθηση και επεξεργασία δεδομένων προσωπικού χαρακτήρα,
- Κοινή χρήση δεδομένων προσωπικού χαρακτήρα στο πλαίσιο της ευρωπαϊκής στρατηγικής για τα δεδομένα,
- Προώθηση της συμμόρφωσης με το GDPR και των δικαιωμάτων των υποκειμένων των δεδομένων.
Ο εκτελεστικός διευθυντής του ENISA, Juhan Lepassaar, σχολίασε: "Ο ENISA αναλύει τους κινδύνους της τεχνητής νοημοσύνης τα τελευταία 5 χρόνια. Για να προετοιμαστούμε για μια ασφαλή και αξιόπιστη ΤΝ, πρέπει να υπάρχουν οι εγγυήσεις. Σήμερα η τεχνητή νοημοσύνη και ιδίως η μηχανική μάθηση θέτουν μεγάλες προκλήσεις για την προστασία των δεδομένων και της ιδιωτικής ζωής. Η εμπιστοσύνη είναι αυτό που στηρίζει την ασφαλή υιοθέτηση και την ωριμότητα αυτών των τεχνολογιών. Τα μέτρα προστασίας των προσωπικών δεδομένων είναι ένας αποτελεσματικός τρόπος για την απόκτηση αυτής της εμπιστοσύνης".
Ο Wojciech Wiewiorowski, Ευρωπαίος Επόπτης Προστασίας Δεδομένων: "Θα ήταν μειωτικό να μην εξετάσουμε τα οφέλη που μπορεί να προσφέρει η τεχνητή νοημοσύνη στην κοινωνία, όπως η ταχύτερη λήψη αποφάσεων και η εύχρηστη αυτοματοποίηση. Ωστόσο, οι κίνδυνοι για τα ατομικά δικαιώματα είναι σημαντικοί και μπορούν να έχουν βαθύτατο αντίκτυπο στις δημοκρατίες μας. Με την προληπτική αντιμετώπιση αυτών των κινδύνων, μπορούμε να αξιοποιήσουμε το δυναμικό της ΤΝ και ταυτόχρονα να διασφαλίσουμε τα δικαιώματα της ιδιωτικής ζωής. Είναι ζωτικής σημασίας να αναλάβουμε δράση τώρα για να διασφαλίσουμε την υπεύθυνη και ηθική εφαρμογή των τεχνολογιών ΤΝ".
Προκλήσεις και ευκαιρίες: τα βασικά συμπεράσματα του συνεδρίου
- Στο πλαίσιο των τριών συζητήσεων σε πάνελ, ρυθμιστικές αρχές από θεσμικά όργανα της Ευρωπαϊκής Ένωσης, τη Γαλλία, την Ισπανία και τη Νορβηγία, μαζί με φορείς χάραξης πολιτικής και επαγγελματίες του κλάδου, συζήτησαν σχετικά με τις προκλήσεις της μηχανικής προστασίας δεδομένων για τα επόμενα χρόνια, τον ρόλο των αρχών προστασίας δεδομένων στην εποχή της τεχνητής νοημοσύνης και τις προοπτικές και τους προβληματισμούς για την προστασία των δεδομένων κατά την επεξεργασία ιατρικών δεδομένων στην εποχή μετά την πανδημία.
- Πέραν αυτών των συζητήσεων, οι προσκεκλημένοι ομιλητές ανέπτυξαν επίσης τις ρυθμιστικές προσεγγίσεις της τεχνητής νοημοσύνης στις δύο πλευρές του Ατλαντικού και τον τρόπο με τον οποίο η τεχνική Zero Knowledge Proof μπορεί να αναπτυχθεί ως τεχνική ενίσχυσης της ιδιωτικής ζωής σε πραγματικές εφαρμογές.
Ακολουθήστε μας τώρα στο twitter στο @athenian_herald, στο instagram στο Athenian_Herald αλλά και στο facebook στο athenian.herald ή στην ιστοσελίδα μας.
Σχόλια ()