Η χρήση της τεχνητής νοημοσύνης στην ΕΕ θα ρυθμίζεται από τον νόμο AI, τον πρώτο ολοκληρωμένο νόμο στον κόσμο για την τεχνητή νοημοσύνη. Μάθετε πώς θα σας προστατεύσει.
Ως μέρος της ψηφιακής στρατηγικής της, η ΕΕ θέλει να ρυθμίσει την τεχνητή νοημοσύνη (AI) για να εξασφαλίσει καλύτερες συνθήκες για την ανάπτυξη και τη χρήση αυτής της καινοτόμου τεχνολογίας. Η τεχνητή νοημοσύνη μπορεί να αποφέρει πολλά οφέλη, όπως καλύτερη υγειονομική περίθαλψη, ασφαλέστερη και καθαρότερη μεταφορά, αποτελεσματικότερη παραγωγή, φθηνότερη και βιωσιμότερη ενέργεια.
Τον Απρίλιο του 2021, η Εθρωπαϊκή Επιτροπή πρότεινε το πρώτο ρυθμιστικό πλαίσιο της ΕΕ για την τεχνητή νοημοσύνη. Προτείνει τα συστήματα τεχνητής νοημοσύνης που μπορούν να χρησιμοποιηθούν σε διαφορετικές εφαρμογές να αναλυθούν και να ταξινομηθούν ανάλογα με τον κίνδυνο που ενέχουν για τους χρήστες. Τα διαφορετικά επίπεδα κινδύνου θα σημαίνουν περισσότερη ή λιγότερη ρύθμιση. Μόλις εγκριθούν, αυτοί θα είναι οι πρώτοι κανόνες στον κόσμο για την τεχνητή νοημοσύνη.
Μάθετε περισσότερα για το τι είναι η τεχνητή νοημοσύνη και πώς χρησιμοποιείται
Τι θέλει το Κοινοβούλιο στη νομοθεσία για την τεχνητή νοημοσύνη
Προτεραιότητα του Κοινοβουλίου είναι να διασφαλίσει ότι τα συστήματα τεχνητής νοημοσύνης που χρησιμοποιούνται στην ΕΕ είναι ασφαλή, διαφανή, ανιχνεύσιμα, χωρίς διακρίσεις και φιλικά προς το περιβάλλον.Για την πρόληψη επιβλαβών αποτελεσμάτωνα, τα συστήματα τεχνητής νοημοσύνης θα πρέπει να επιβλέπονται από ανθρώπους και όχι από αυτοματισμούς.
Το Κοινοβούλιο θέλει επίσης να καθιερώσει έναν τεχνολογικά ουδέτερο, ενιαίο ορισμό για την τεχνητή νοημοσύνη που θα μπορούσε να εφαρμοστεί σε μελλοντικά συστήματα τεχνητής νοημοσύνης.
Μάθετε περισσότερα για το έργο του Κοινοβουλίου σχετικά με την τεχνητή νοημοσύνη και το όραμά του για το μέλλον της τεχνητής νοημοσύνης.
Πράξη Τεχνητής Νοημοσύνης: διαφορετικοί κανόνες για διαφορετικά επίπεδα κινδύνου
Οι νέοι κανόνες θεσπίζουν υποχρεώσεις για τους παρόχους και τους χρήστες ανάλογα με το επίπεδο κινδύνου από την τεχνητή νοημοσύνη. Ενώ πολλά συστήματα τεχνητής νοημοσύνης ενέχουν ελάχιστο κίνδυνο, πρέπει να αξιολογηθούν.
Απαράδεκτος κίνδυνος
Τα συστήματα τεχνητής νοημοσύνης απαράδεκτου κινδύνου είναι συστήματα που θεωρούνται απειλή για τους ανθρώπους και θα απαγορευθούν. Αυτά περιλαμβάνουν:
• γνωστική συμπεριφορική χειραγώγηση ατόμων ή συγκεκριμένων ευάλωτων ομάδων: για παράδειγμα παιχνίδια που ενεργοποιούνται με φωνή που ενθαρρύνουν επικίνδυνη συμπεριφορά στα παιδιά
• κοινωνική βαθμολογία: ταξινόμηση ατόμων με βάση τη συμπεριφορά, την κοινωνικοοικονομική κατάσταση, τα προσωπικά χαρακτηριστικά
• συστήματα βιομετρικής αναγνώρισης σε πραγματικό χρόνο και εξ αποστάσεως, όπως η αναγνώριση προσώπου
Ενδέχεται να επιτρέπονται ορισμένες εξαιρέσεις: Για παράδειγμα, τα απομακρυσμένα βιομετρικά συστήματα ταυτοποίησης, όπου η ταυτοποίηση πραγματοποιείται μετά από σημαντική καθυστέρηση, θα επιτρέπεται να διώκουν σοβαρά εγκλήματα και μόνο μετά από δικαστική έγκριση.
Υψηλός κίνδυνος
Τα συστήματα τεχνητής νοημοσύνης που επηρεάζουν αρνητικά την ασφάλεια ή τα θεμελιώδη δικαιώματα θα θεωρούνται υψηλού κινδύνου και θα χωρίζονται σε δύο κατηγορίες.
1. Συστήματα τεχνητής νοημοσύνης που χρησιμοποιούνται σε προϊόντα που εμπίπτουν στη νομοθεσία της ΕΕ για την ασφάλεια των προϊόντων. Αυτό περιλαμβάνει παιχνίδια, αεροπορία, αυτοκίνητα, ιατρικές συσκευές και ανελκυστήρες.
2. Συστήματα τεχνητής νοημοσύνης που εμπίπτουν σε οκτώ συγκεκριμένους τομείς που θα πρέπει να καταχωρηθούν σε μια βάση δεδομένων της ΕΕ:
• βιομετρική ταυτοποίηση και κατηγοριοποίηση φυσικών προσώπων
• διαχείριση και λειτουργία υποδομών ζωτικής σημασίας
• εκπαίδευση και επαγγελματική κατάρτιση
• απασχόληση, διαχείριση εργαζομένων και πρόσβαση στην αυτοαπασχόληση
• πρόσβαση και απόλαυση βασικών ιδιωτικών υπηρεσιών και δημόσιων υπηρεσιών και παροχών
• επιβολή του νόμου
• διαχείριση μετανάστευσης, ασύλου και ελέγχου των συνόρων
• βοήθεια στη νομική ερμηνεία και εφαρμογή του νόμου.
Όλα τα συστήματα τεχνητής νοημοσύνης υψηλού κινδύνου θα αξιολογηθούν πριν διατεθούν στην αγορά και καθ’ όλη τη διάρκεια του κύκλου ζωής τους.
Γενετική τεχνητή νοημοσύνη
Γενετική τεχνητή νοημοσύνη, όπως το ChatGPT, θα πρέπει να συμμορφώνονται με τις προυποθέσεις διαφάνειας:
- Αποκαλύπτοντας ότι το περιεχόμενο δημιουργήθηκε από AI
- Σχεδιασμός του μοντέλου για να αποτρέψει τη δημιουργία παράνομου περιεχομένου
- Δημοσίευση περιλήψεων δεδομένων που προστατεύονται από πνευματικά δικαιώματα που χρησιμοποιούνται για εκπαίδευση
Περιορισμένος κίνδυνος
Τα συστήματα τεχνητής νοημοσύνης περιορισμένου κινδύνου θα πρέπει να συμμορφώνονται με ελάχιστες απαιτήσεις διαφάνειας που θα επιτρέπουν στους χρήστες να λαμβάνουν τεκμηριωμένες αποφάσεις. Αφού αλληλεπιδράσει με τις εφαρμογές, ο χρήστης μπορεί στη συνέχεια να αποφασίσει αν θέλει να συνεχίσει να το χρησιμοποιεί. Οι χρήστες θα πρέπει να ενημερώνονται όταν αλληλεπιδρούν με την τεχνητή νοημοσύνη. Αυτό περιλαμβάνει συστήματα AI που δημιουργούν ή χειρίζονται περιεχόμενο εικόνας, ήχου ή βίντεο (π.χ. deepfakes).
Επόμενα βήματα
Στις 14 Ιουνίου 2023, οι ευρωβουλευτές υιοθέτησαν τη διαπραγματευτική τους θέση σχετικά με την πράξη της Τεχνητής Νοημοσύνης. Οι συνομιλίες θα ξεκινήσουν τώρα με τις χώρες της ΕΕ στο Συμβούλιο σχετικά με την τελική μορφή του νόμου.
Στόχος είναι να επιτευχθεί συμφωνία μέχρι το τέλος του τρέχοντος έτους.