Start Media TV | Ράδιο Κέρκυρα 100,1

27 Απριλίου 2024
12.9 C
Corfu

The Guardian, 27 Ιουν 2023 Μπορεί η ΕΕ να επιβάλει νόμο και τάξη στην τεχνητή νοημοσύνη (AI); Dan Milmo | The Guardian, 27 Jun 2023 Can the EU bring law and order to artificial intelligence (AI)? Dan Milmo

Διαβάστε ακόμα

 

Ακολουθήστε το Start Media στο Google News! 

Deepfakes, facial recognition and existential threat: politicians, watchdogs and the public must confront daunting issues when it comes to regulating artificial intelligence.

Tech regulation has a history of lagging the industry, with the the UK’s online safety bill and the EU’s Digital Services Act only just arriving almost two decades after the launch of Facebook. AI is streaking ahead as well. ChatGPT already has more than 100 million users, the pope is in a puffer jacket and an array of experts have warned that the AI race is getting out of control.

But at least the European Union, as is often the case with tech, is making a start with the AI Act. In the US, senate majority leader Chuck Schumer has published a framework for developing AI regulations, one that prioritises goals like security, accountability and innovation – with an emphasis on the latter. In the UK, Rishi Sunak has convened a global summit on AI safety for the autumn. But the EU’s AI Act, two years in the making, is the first serious attempt to regulate the technology.

Under the act, AI systems are classified according to the risk they pose to users: unacceptable risk; high risk; limited risk; and minimal or no risk. They are then regulated accordingly. The higher the risk the more regulation.

The EU is blunt about systems posing an “unacceptable risk”: they will be banned. Unacceptable risk includes systems that manipulate people, with the EU citing the rather dystopian example of voice-activated toys that encourage dangerous behaviour in children; “social scoring”, or governments classifying people based on socio-economic status or personal characteristics (to avoid scenarios like in Rongcheng, China, where the city rated aspects of residents’ behaviour). It also includes predictive policing systems based on profiling, location or past criminal behaviour; and biometric identification systems, such as real-time facial recognition.

High-risk AI systems are those that negatively affect safety or fundamental rights. They will be assessed before being put on the market, and will be checked while they’re in use. The high-risk category includes systems used in education (like scoring of exams); operation of critical infrastructure; law enforcement (such as evaluating the reliability of evidence); and management of asylum, migration and border control. It also includes systems used in products that fall under the EU’s product safety legislation such as toys, cars and medical devices. (Critics argue that the time and money it takes to comply with such rules may be daunting for start-ups in particular.)

Limited risk systems will have to comply with “minimal transparency requirements” and users should be made aware of when they are interacting with AI, including systems that generate image, audio or video content like deepfakes. The EU parliament cites specific proposals for generative AI (tools like ChatGPT and Midjourney that produce plausible text and images in response to human prompts). AI-generated content will have to be flagged in some way (the EU wants Google and Facebook to start doing this straightaway). And AI firms will have to publish summaries of the copyrighted data used for training up these AI systems. (We are still largely in the dark about this).

Minimal or no risk systems, such as AI used in video games or spam filters, will have no additional obligations under the act. The European Commission says the “vast majority” of AI systems used in the EU fall into this category. Breaches of the act could be punished by fines of €30m or 6% of global turnover. (Microsoft, for instance, reported revenue of $198bn last year.)

As existential fears about such technology’s rapid rise abound and tech giants compete in an AI arms race, governments are beginning to seriously consider the warnings about AI and questions it raises, as my colleague Alex Hern and I reported on last week. The new EU AI act, meanwhile, addresses similar questions.

What will it do about foundation models? Foundation models underpin generative AI tools like ChatGPT and are trained on vast amounts of data. The European parliament draft will require services like ChatGPT to register the sources of all the data used to “train” the machine.

To combat the high risk of copyright infringement, the legislation will oblige developers of AI chatbots to publish all the works of scientists, musicians, illustrators, photographers and journalists used to train them. They will also have to prove that everything they did to train the machine complied with the law. They add that “deployers” of the systems should have human oversight and redress procedures in place for those tools. This also includes carrying out a “fundamental rights impact assessment” before the system is put in use.

When will it become law and what is the “Brussels effect”. The EU is hoping to agree the final draft by the end of the year after MEPs voted in mid-June to push through an amended version of the draft originally tabled by the European commission. There are now trilateral talks between the commission, the EU parliament’s AI committee chairs and the Council of the European Union to finesse the legislation.

Lisa O’Carroll is the Guardian’s Brussels correspondent, and she has been following the act closely. Lisa told me that real-time facial recognition, banned under the MEP proposals, will be a contentious issue, noting that: “Police forces and interior ministries see real-time facial recognition as an important tool in the fight against crime and some civil offences. This type of AI is already in force in parts of China, where drivers are watched for speeding, use of mobile phone or dozing off at the wheel.”

She added: “And the French government is – controversially – planning to use real-time AI facial recognition at next summer’s Olympics to avert any potential threats such as crowd surges. Dragoş Tudorache, the co-rapporteur of the MEPs’ AI committee, confirmed this law would have to be reversed if the AI act were in place.

Charlotte Walker-Osborn, a technology lawyer specialising in AI, says the EU is influential in tech regulation globally – with laws like GDPR – and the AI Act will carry weight. But other countries like the US, UK and China are already looking to introduce their own measures, which will mean additional work for tech firms, businesses and other entities that fall within its scope.

 

Deepfakes, αναγνώριση προσώπου και υπαρξιακή απειλή: οι πολιτικοί, οι ελεγκτές και το κοινό πρέπει να αντιμετωπίσουν τρομακτικά ζητήματα όσον αφορά τη ρύθμιση της τεχνητής νοημοσύνης.

Η ρύθμιση της τεχνολογίας έχει ιστορικό καθυστερήσεων στον κλάδο, με το νομοσχέδιο για την ασφάλεια στο Διαδίκτυο του Ηνωμένου Βασιλείου και τον νόμο για τις ψηφιακές υπηρεσίες της ΕΕ να έρχονται, μόλις, δύο σχεδόν δεκαετίες μετά την εμφάνιση του Facebook. Η τεχνητή νοημοσύνη προχωρά επίσης. Το ChatGPT έχει ήδη περισσότερους από 100 εκατομμύρια χρήστες, ο Πάπας είναι με τζάκετ και μια σειρά από ειδικούς έχουν προειδοποιήσει ότι η κούρσα της τεχνητής νοημοσύνης ξεφεύγει από τον έλεγχο.

Αλλά τουλάχιστον η Ευρωπαϊκή Ένωση, όπως συμβαίνει συχνά με την τεχνολογία, κάνει την αρχή με την νομοθετική πράξη AI. Στις ΗΠΑ, ο ηγέτης της πλειοψηφίας της Γερουσίας Chuck Schumer δημοσίευσε ένα πλαίσιο για την ανάπτυξη κανονισμών για την τεχνητή νοημοσύνη, ένα πλαίσιο που δίνει προτεραιότητα σε στόχους όπως η ασφάλεια, η λογοδοσία και η καινοτομία – με έμφαση στο τελευταίο. Στο Ηνωμένο Βασίλειο, ο Rishi Sunak συγκάλεσε για το φθινόπωρο μια παγκόσμια σύνοδο κορυφής για την ασφάλεια της τεχνητής νοημοσύνης. Αλλά ο νόμος της ΕΕ για την τεχνητή νοημοσύνη, δύο χρόνια σε εξέλιξη, είναι η πρώτη σοβαρή προσπάθεια ρύθμισης της τεχνολογίας.

Σύμφωνα με την νομ. πράξη, τα συστήματα τεχνητής νοημοσύνης ταξινομούνται ανάλογα με τον κίνδυνο που ενέχουν για τους χρήστες: μη αποδεκτός κίνδυνος, υψηλός κίνδυνος, περιορισμένος κίνδυνος, και ελάχιστος ή καθόλου κίνδυνος. Στη συνέχεια ρυθμίζονται ανάλογα. Όσο μεγαλύτερος ο κίνδυνος τόσο περισσότερη η ρύθμιση.

Η ΕΕ είναι ωμή σχετικά με τα συστήματα που θέτουν έναν «μη αποδεκτό κίνδυνο»: θα απαγορευτούν. Ο μη αποδεκτός κίνδυνος περιλαμβάνει συστήματα που χειραγωγούν τους ανθρώπους, με την ΕΕ να αναφέρει το μάλλον δυστοπικό παράδειγμα παιχνιδιών που ενεργοποιούνται με φωνή που ενθαρρύνει την επικίνδυνη συμπεριφορά στα παιδιά. «Κοινωνική βαθμολογία» ή κυβερνήσεις που ταξινομούν τους ανθρώπους με βάση την κοινωνικοοικονομική κατάσταση ή τα προσωπικά χαρακτηριστικά (για να αποφευχθούν σενάρια όπως στο Rongcheng, Κίνα, όπου η πόλη βαθμολόγησε πτυχές της συμπεριφοράς των κατοίκων). Περιλαμβάνει επίσης συστήματα προληπτικής αστυνόμευσης που βασίζονται σε προφίλ, τοποθεσία ή προηγούμενη εγκληματική συμπεριφορά και βιομετρικά συστήματα αναγνώρισης, όπως η αναγνώριση προσώπου σε πραγματικό χρόνο.

Τα συστήματα ΑΙ υψηλού κινδύνου είναι αυτά που επηρεάζουν αρνητικά την ασφάλεια ή τα θεμελιώδη δικαιώματα. Θα αξιολογηθούν πριν διατεθούν στην αγορά και θα ελέγχονται όσο χρησιμοποιούνται. Η κατηγορία υψηλού κινδύνου περιλαμβάνει συστήματα που χρησιμοποιούνται σε εκπαίδευση (όπως η βαθμολογία των εξετάσεων), λειτουργία υποδομής ζωτικής σημασίας, επιβολή του νόμου (όπως η αξιολόγηση της αξιοπιστίας των αποδεικτικών στοιχείων) και διαχείριση του ασύλου, της μετανάστευσης και του ελέγχου των συνόρων. Περιλαμβάνει επίσης συστήματα που χρησιμοποιούνται σε προϊόντα που εμπίπτουν στη νομοθεσία της ΕΕ για την ασφάλεια των προϊόντων, όπως παιχνίδια, αυτοκίνητα και ιατρικές συσκευές. (Οι επικριτές υποστηρίζουν ότι ο χρόνος και τα χρήματα που απαιτούνται για τη συμμόρφωση με τέτοιους κανόνες μπορεί να είναι αποθαρρυντικός για νεοσύστατες επιχειρήσεις.)

Τα συστήματα περιορισμένου κινδύνου θα πρέπει να συμμορφώνονται με τις «ελάχιστες απαιτήσεις διαφάνειας» και οι χρήστες θα πρέπει να ενημερώνονται όταν αλληλεπιδρούν με ΑΙ, περιλαμβανομένων συστημάτων που παράγουν περιεχόμενο εικόνας, ήχου ή βίντεο όπως τα deepfakes. Το Ευρ. κοινοβούλιο παραθέτει συγκεκριμένες προτάσεις για τη δημιουργία AI (εργαλεία όπως τα ChatGPT και Midjourney που παράγουν εύλογο κείμενο και εικόνες ως απάντηση σε ανθρώπινες προτροπές). Το περιεχόμενο που δημιουργείται από ΑΙ θα πρέπει να επισημανθεί με κάποιο τρόπο (η ΕΕ θέλει Google και Facebook να αρχίσουν να το κάνουν αμέσως). Και οι εταιρείες ΑΙ θα πρέπει να δημοσιεύουν περιλήψεις των δεδομένων που προστατεύονται από πνευματικά δικαιώματα που χρησιμοποιούνται για την εκπαίδευση αυτών των συστημάτων ΑΙ. (Είμαστε ακόμα σε μεγάλο βαθμό στο σκοτάδι σχετικά με αυτό).

Τα συστήματα ελάχιστου ή μηδενικού κινδύνου, όπως η τεχνητή νοημοσύνη που χρησιμοποιείται σε βιντεοπαιχνίδια ή τα φίλτρα ανεπιθύμητης αλληλογραφίας, δεν θα έχουν πρόσθετες υποχρεώσεις βάσει του νόμου. Η Ευρ. Επιτροπή λέει ότι η «συντριπτική πλειοψηφία» των συστημάτων ΑΙ που χρησιμοποιούνται στην ΕΕ εμπίπτουν σε αυτήν την κατηγορία. Οι παραβάσεις της νομ. πράξης θα μπορούσαν να τιμωρούνται με πρόστιμα €30 εκ. ευρώ ή 6% του παγκόσμιου τζίρου. (Η Microsoft, πχ, ανέφερε έσοδα $198 δισ. πέρυσι.)

Καθώς υπαρξιακοί φόβοι για την ταχεία άνοδο μιας τέτοιας τεχνολογίας αφθονούν και οι τεχνολογικοί γίγαντες ανταγωνίζονται σε έναν αγώνα εξοπλισμών ΑΙ, οι κυβερνήσεις αρχίζουν να εξετάζουν σοβαρά τις προειδοποιήσεις για την ΑΙ και τα ερωτήματα που αυτή εγείρει, όπως αναφέραμε ο συνάδελφός μου Alex Hern και εγώ την περασμένη εβδομάδα. Η νέα νομ. πράξη της ΕΕ για την AI, εν τω μεταξύ, θέτει παρόμοια ζητήματα.

Τι θα κάνει με τα μοντέλα θεμελίωσης; Τα μοντέλα θεμελίωσης υποστηρίζουν εργαλεία παραγωγής τεχνητής νοημοσύνης όπως το ChatGPT και εκπαιδεύονται σε τεράστιες ποσότητες δεδομένων. Το προσχέδιο του Ευρωπαϊκού Κοινοβουλίου θα απαιτεί από υπηρεσίες όπως το ChatGPT να καταχωρούν τις πηγές όλων των δεδομένων που χρησιμοποιούνται για την «εκπαίδευση» του μηχανήματος.

Για την καταπολέμηση του υψηλού κινδύνου παραβίασης πνευματικών δικαιωμάτων, η νομοθεσία θα υποχρεώσει τους προγραμματιστές chatbots τεχνητής νοημοσύνης να δημοσιεύουν όλα τα έργα επιστημόνων, μουσικών, εικονογράφων, φωτογράφων και δημοσιογράφων που χρησιμοποιήθηκαν για την εκπαίδευσή τους. Θα πρέπει επίσης να αποδείξουν ότι όλα όσα έκαναν για να εκπαιδεύσουν το μηχάνημα ήταν σύμφωνα με το νόμο. Προσθέτουν ότι οι «αναπτύσσοντες» (συστήματα) θα πρέπει να διαθέτουν διαδικασίες ανθρώπινης επίβλεψης και επανόρθωσης για αυτά τα εργαλεία. Αυτό περιλαμβάνει επίσης τη διενέργεια «αξιολόγησης επιπτώσεων στα θεμελιώδη δικαιώματα» πριν το σύστημα τεθεί σε χρήση.

Πότε θα γίνει νόμος και ποιο είναι το «φαινόμενο των Βρυξελλών». Η ΕΕ ελπίζει να συμφωνήσει στο τελικό σχέδιο μέχρι το τέλος του έτους, μετά την απόφαση των ευρωβουλευτών στα μέσα Ιουνίου να προωθήσουν μια τροποποιημένη έκδοση του σχεδίου που είχε αρχικά κατατεθεί από την Ευρωπαϊκή Επιτροπή. Υπάρχουν τώρα τριμερείς συνομιλίες μεταξύ της Επιτροπής, των προέδρων των επιτροπών τεχνητής νοημοσύνης του κοινοβουλίου της ΕΕ και του Συμβουλίου της Ευρωπαϊκής Ένωσης για να τελειοποιηθεί η νομοθεσία.

Η Lisa O’Carroll είναι η ανταποκρίτρια του Guardian στις Βρυξέλλες και παρακολουθεί στενά την νομ. πράξη. Η Λίζα μου είπε ότι η αναγνώριση προσώπου σε πραγματικό χρόνο, η οποία απαγορεύτηκε βάσει των προτάσεων των ευρωβουλευτών, θα είναι ένα αμφιλεγόμενο ζήτημα, σημειώνοντας ότι: «Οι αστυνομικές δυνάμεις και τα υπουργεία Εσωτερικών βλέπουν την αναγνώριση προσώπου σε πραγματικό χρόνο ως σημαντικό εργαλείο για την καταπολέμηση του εγκλήματος και ορισμένων αστικών αδικημάτων . Αυτός ο τύπος AI είναι ήδη σε ισχύ σε μέρη της Κίνας, όπου οι οδηγοί παρακολουθούνται για υπερβολική ταχύτητα, χρήση κινητού τηλεφώνου ή ύπνο στο τιμόνι».

Και πρόσθεσε: «Και η γαλλική κυβέρνηση σχεδιάζει – αμφιλεγόμενα – να χρησιμοποιήσει την αναγνώριση προσώπου με ΑΙ σε πραγματικό χρόνο στους Ολυμπιακούς Αγώνες του επόμενου καλοκαιριού για να αποτρέψει τυχόν πιθανές απειλές, όπως τα κύματα κόσμου. Ο Dragoş Tudorache, ο συνεισηγητής της επιτροπής ΑΙ των ευρωβουλευτών, επιβεβαίωσε ότι αυτός ο νόμος θα έπρεπε να ανατραπεί εάν ετίθετο σε ισχύ ο νόμος για την AI.

Η Charlotte Walker-Osborn, δικηγόρος τεχνολογίας που ειδικεύεται στην τεχνητή νοημοσύνη, λέει ότι η ΕΕ ασκεί επιρροή στη ρύθμιση της τεχνολογίας παγκοσμίως – με νόμους όπως ο GDPR – και ο νόμος για την τεχνητή νοημοσύνη θα έχει βαρύτητα. Αλλά άλλες χώρες, όπως οι ΗΠΑ, το Ηνωμένο Βασίλειο και η Κίνα, αναζητούν ήδη να εισαγάγουν τα δικά τους μέτρα, κάτι που θα σημαίνει πρόσθετη δουλειά για εταιρείες τεχνολογίας, επιχειρήσεις και άλλες οντότητες που εμπίπτουν στο πεδίο εφαρμογής του.

- Advertisement -spot_img

Τελευταία Νέα

Κέρκυρα, Σάββατο 27 Απριλίου: 32 αφίξεις αεροσκαφών από 13 αεροπορικές εταιρείες

Αυξητική τάση παρουσιάζουν οι αεροπορικές αφίξεις στο αεροδρόμιο της Κέρκυρας για το Σάββατο 27 Απριλίου. Πιο συγκεκριμένα, θα πραγματοποιηθούν συνολικά...
- Advertisement -spot_img

Περισσότερες ειδήσεις σαν και αυτές

- Advertisement -spot_img