- 14/10/2024
Γ. Χατζηθεοδοσίου στην “Εφημερίδα των Συντακτών”: Τεχνητή Νοημοσύνη και Ηθική
Άρθρο του Γιάννη Χατζηθεοδοσίου, Προέδρου του Επαγγελματικού Επιμελητηρίου Αθηνών και Επίτιμου Διδάκτορα του Πανεπιστημίου Πειραιά, σε ειδικό ένθετο της “Εφημερίδας των Συντακτών” (13/10/2024).
Η Τεχνητή Νοημοσύνη έχει χαρακτηριστεί ως η ισχυρότερη τεχνολογία, που εφηύρε ποτέ ο άνθρωπος. Σήμερα, οι εφαρμογές της είναι σε θέση να επεξεργάζονται και να αποδίδουν πληροφορίες 1.000 φορές ταχύτερα και με πολύ μεγαλύτερη ακρίβεια, σε σύγκριση με την ανθρώπινη σκέψη. Στα χρόνια που έρχονται, η νοημοσύνη των «σκεπτόμενων μηχανών» θα γίνεται όλο και πιο ισχυρή σε σχέση με τη δική μας.
Η δυναμική αυτή, από τη μία εντυπωσιάζει και δημιουργεί προσδοκίες για τις λύσεις που μπορεί να δώσει η Τεχνητή Νοημοσύνη σε σύνθετα προβλήματα, για την καινοτομία που μπορεί να απελευθερώσει. Από την άλλη, όμως, προκαλεί ανησυχία για τους κινδύνους που συνεπάγεται σε οικονομικό, κοινωνικό και ηθικό επίπεδο.
Ένας από τους σημαντικότερους κινδύνους είναι η όξυνση των κοινωνικών και οικονομικών ανισοτήτων, σε τοπικό και παγκόσμιο επίπεδο. Κι αυτό γιατί οι μεγαλύτερες εταιρίες – όπως και οι πιο ανεπτυγμένες χώρες – έχουν μεγαλύτερη δυνατότητα να επωφεληθούν από τις τεχνολογίες Τεχνητής Νοημοσύνης, σε σύγκριση με μικρές επιχειρήσεις, κοινωνικές ομάδες, αλλά και χώρες, που κινδυνεύουν να μείνουν πίσω. Επιπλέον, οι αλγόριθμοι της Τεχνητής Νοημοσύνης στηρίζονται σε δεδομένα, που ενδέχεται να οδηγήσουν σε προκαταλήψεις, διακρίσεις και άδικες αποφάσεις – όπως για παράδειγμα, στην περίπτωση της αξιολόγησης της πιστοληπτικής ικανότητας ενός ατόμου κ.ά. Εγείρονται, επίσης, σοβαρά ζητήματα ιδιωτικότητας, ατομικής ελευθερίας και ασφάλειας, καθώς οι χρήστες συχνά δεν γνωρίζουν ποια δεδομένα συλλέγονται για αυτούς, ποιοι έχουν πρόσβαση στα δεδομένα τους και πώς τα χρησιμοποιούν. Υπαρκτός είναι πάντα και ο κίνδυνος οι τεχνολογίες Τεχνητής Νοημοσύνης να χρησιμοποιηθούν για κακόβουλες ενέργειες και για την χειραγώγηση των πολιτών, μέσω της διασποράς ψευδών ειδήσεων, παραποιημένου περιεχομένου κ.ά.
Το ζήτημα της ευθύνης, λογοδοσίας και διαφάνειας γίνεται ακόμη πιο σημαντικό, καθώς στο μέλλον η Τεχνητή Νοημοσύνη θα συμμετέχει όλο και περισσότερο στη λήψη αποφάσεων και μάλιστα σε τομείς κρίσιμους για τη ζωή των ανθρώπων, όπως η δικαιοσύνη, η υγεία, οι χρηματοπιστωτικές υπηρεσίες.
Είναι θετικό ότι στην Ευρώπη υπάρχει ήδη κινητοποίηση, για τη διαχείριση αυτών των προκλήσεων. Ο Κανονισμός της Ευρωπαϊκής Ένωσης για την Τεχνητή Νοημοσύνη είναι το πρώτο νομοθέτημα για τη συγκεκριμένη τεχνολογία παγκοσμίως, με στόχο να διασφαλιστεί η δεοντολογική ανάπτυξη, η ασφάλεια και η αξιοπιστία των συστημάτων Τεχνητής Νοημοσύνης. Κατηγοριοποιώντας τις συγκεκριμένες χρήσεις της Τεχνητής Νοημοσύνης σε τέσσερα επίπεδα κινδύνου και θεσπίζοντας τους κατάλληλους κανόνες, ο Κανονισμός έχει τη δυνατότητα να αποτελέσει παγκόσμιο πρότυπο ρύθμισης – όπως συνέβη και στην περίπτωση της προστασίας των δεδομένων.
Η Ελλάδα έχει κάθε λόγο να κινηθεί με ταχύτητα και προσοχή, στην ενσωμάτωση της ευρωπαϊκής νομοθεσίας και στην υιοθέτηση των σχετικών κατευθυντήριων γραμμών.
Χρειάζεται να διαμορφώσουμε έγκαιρα, σε εθνικό επίπεδο, κατάλληλους μηχανισμούς ρύθμισης, παρακολούθησης και εποπτείας. Με ένα ισχυρό θεσμικό και κανονιστικό πλαίσιο, το οποίο θα είναι αρκετά ευέλικτο, ώστε να προσαρμόζεται στις γρήγορα εξελισσόμενες τεχνολογίες. Θα παρέχει γόνιμο έδαφος για την ανάπτυξη της καινοτομίας, υπηρετώντας ταυτόχρονα την ανάγκη για διαφάνεια, για λογοδοσία, για υπευθυνότητα, για ανθρώπινο έλεγχο στη λήψη αποφάσεων, για προστασία της ασφάλειας και της ιδιωτικότητας των χρηστών.
Είναι επιτακτική η ανάγκη να δημιουργήσουμε από τώρα ένα ανοιχτό, συμπεριληπτικό οικοσύστημα, το οποίο θα λαμβάνει υπόψη τις ανάγκες της κοινωνίας, θα προλαμβάνει φαινόμενα συγκέντρωσης και θα καταπολεμά ψηφιακές ανισότητες, αλγοριθμικές διακρίσεις και πρακτικές αποκλεισμούς. Στο πλαίσιο αυτό, πέρα από τις ρυθμιστικές παρεμβάσεις, οφείλουμε να επενδύσουμε σοβαρά στην ψηφιακή εκπαίδευση – με ενίσχυση των σχετικών προγραμμάτων στα ΑΕΙ – στην ανάπτυξη δεξιοτήτων μέσω της κατάρτισης, αλλά και στον ψηφιακό εγγραμματισμό της κοινωνίας, στην ευαισθητοποίηση και εκπαίδευση των επιχειρήσεων, των επαγγελματιών και του κοινού, σχετικά με τη δημιουργική, ηθική και ασφαλή χρήση της Τεχνητής Νοημοσύνης.
Σε κάθε περίπτωση, δεν έχουμε την πολυτέλεια του εφησυχασμού. Απαιτείται προνοητικότητα, επαγρύπνηση και συλλογική δέσμευση σε κοινές αρχές.
Η Τεχνητή Νοημοσύνη ανήκει στις τεχνολογικές εξελίξεις, που δύσκολα μπορούμε να ελέγξουμε ή ακόμα και να κατανοήσουμε, με βάση τους παραδοσιακούς μηχανισμούς. Αυτό δεν σημαίνει ότι πρέπει να δαιμονοποιηθεί, ούτε βεβαίως να θεοποιηθεί. Το ζητούμενο είναι να ανοίξουμε έγκαιρα και με νηφαλιότητα τον διάλογο για τις δυνατότητες, αλλά και για τις ηθικές και κοινωνικές προκλήσεις που δημιουργεί η Τεχνητή Νοημοσύνη. Έναν διάλογο, ο οποίος θα μας επιτρέψει να στηρίξουμε την ανάπτυξη της τεχνολογικής αυτής υπερδύναμης, πάνω σε ηθικές αρχές και αξίες. Να «διδάξουμε» τώρα – όσο ακόμη έχουμε καιρό – την Τεχνητή Νοημοσύνη, ώστε να λειτουργεί ως εργαλείο συλλογικής και ατομικής προόδου και όχι ως μέσο χειραγώγησης, ή μεγιστοποίησης του κέρδους με κάθε κόστος. Το αν θα επιτύχουμε σε αυτή την προσπάθεια, θα καθορίσει σε μεγάλο βαθμό το μέλλον όλων μας.