11.5 C
Athens
Σάββατο, 25 Ιανουαρίου, 2025
ΑρχικήΟικονομίαΤεχνολογίαΑλγόριθμοι με προκαταλήψεις: Πώς το AI αναπαράγει κοινωνικές ανισότητες;

Αλγόριθμοι με προκαταλήψεις: Πώς το AI αναπαράγει κοινωνικές ανισότητες;


Της Νάσιας Κουτσούνη,

Η τεχνητή νοημοσύνη έχει εισχωρήσει για τα καλά στην καθημερινότητά μας, εξελισσόμενη συνεχώς σε διάφορους τομείς και προσφέροντας λύσεις που μας διευκολύνουν και μας επιταχύνουν τις διαδικασίες. Από τις προσωπικές μας υποχρεώσεις μέχρι τα επαγγελματικά ζητήματα, αλλά και στην εξυπηρέτηση πελατών μέσω e-shops ή άλλων ιστοσελίδων, η τεχνητή νοημοσύνη αποτελεί  αναπόσπαστο εργαλείο για ένα μεγάλο ποσοστό χρηστών. Είτε πρόκειται για την αυτοματοποίηση καθημερινών εργασιών, είτε για την αναζήτηση πληροφοριών ή την επίλυση προβλημάτων μπορούμε με σιγουρία να πούμε πως το AI  έχει γίνει η “κρυφή” δύναμη πίσω από την ταχύτερη και πιο αποδοτικη διεκπεραίωση των αναγκών μας.

Τι συμβαίνει όμως όταν το εργαλείο στο οποίο έχει βασιστεί η εμπιστοσύνη χιλιάδων ανθρώπων αποδεικνύεται λιγότερο αντικειμενικό από ό,τι φαίνεται και αρχίζει να κάνει σοβαρά λάθη; Φανταστείτε να αναθέτετε την επιλογή της επαγγελματικής σας πορείας σε έναν αλγόριθμο τεχνητής νοημοσύνης και να σας προτείνει να γίνετε… επαγγελματίας gamer, επειδή το σύστημα γνωρίζει ότι περνάτε ώρες μπροστά από την οθόνη. Ή ακόμα χειρότερα, να σας απορρίψει για μια θέση εργασίας λόγω του φύλου ή της χώρας από την οποία κατάγεστε. Αν και αυτά τα σενάρια ακούγονται σαν κάποιο κακόγουστο αστείο, είναι πραγματικότητα για πολλούς ανθρώπους που επηρεάζονται από προκαταλήψεις που υπάρχουν στα συστήματα τεχνητής νοημοσύνης.

Πηγή εικόνας και δικαιώματα χρήσης: Freepik

Τι είναι όμως οι προκαταλήψεις στα συστήματα τεχνητής νοημοσύνης;

Οι προκαταλήψεις στο AI αναφέρονται σε  διακρίσεις που προκύπτουν από τους αλγόριθμους ή τα δεδομένα που χρησιμοποιούνται για την εκπαίδευση των συστημάτων. Η βασική αιτία της ύπαρξης προκαταλήψεων στα συστήματα αυτά είναι τα δεδομένα. Τα δεδομένα χρησιμοποιούνται για να εκπαιδεύσουν τα μοντέλα μηχανικής μάθησης, και αν αυτά  αντικατοπτρίζουν προκαταλήψεις ή αδικίες που υπάρχουν στην κοινωνία, τότε τα συστήματα θα τις αναπαράγουν. Για παράδειγμα, αν ένα σύστημα AI εκπαιδευτεί με δεδομένα που περιλαμβάνουν τις εργασιακές ανισότητες μεταξύ φύλων, υπάρχει μεγάλη πιθανότητα να καταλήξει σε προκαταλήψεις ως προς το ποιο φύλο είναι καταλληλότερο για ορισμένα επαγγέλματα.

Ένα σημαντικό παράδειγμα που αξίζει να αναφέρουμε όσον αφορά διακρίσεις , είναι το σκάνδαλο της Amazon. Το 2018, η πασίγνωστη εταιρεία, αντιμετώπισε έναν μεγάλο σάλο όταν αποκαλύφθηκε ότι το σύστημα τεχνητής νοημοσύνης που είχε αναπτύξει για να βοηθά στην επιλογή υποψηφίων για θέσεις εργασίας, απέρριπτε συστηματικά γυναίκες. Το AI είχε εκπαιδευτεί χρησιμοποιώντας δεδομένα από τις υπάρχουσες αιτήσεις και προσλήψεις της εταιρείας, οι οποίες στο παρελθόν είχαν μια άνιση εκπροσώπηση φύλου, με περισσότερους άντρες να καταλαμβάνουν τεχνικές και ανώτερες θέσεις. Ως αποτέλεσμα, το σύστημα αναγνώριζε αυτούς τους άντρες ως το «κατάλληλο» πρότυπο για τους υποψήφιους, δίνοντας λιγότερη αξία στις γυναίκες υποψήφιες και απορρίπτοντάς τες αυτόματα για πολλές θέσεις, ειδικά σε τεχνολογικούς τομείς. Παρά τις προσπάθειες της Amazon να διορθώσει το πρόβλημα, το σύστημα τελικά εγκαταλείφθηκε, καθώς απέτυχε να εξαλείψει τις προκαταλήψεις και να δημιουργήσει ένα δίκαιο και ισότιμο σύστημα επιλογής. Το περιστατικό ανέδειξε τις επικίνδυνες συνέπειες των προκαταλήψεων στα δεδομένα και την ανάγκη για προσεκτικό σχεδιασμό και διαχείριση των συστημάτων τεχνητής νοημοσύνης.

Ένα ακόμα ανησυχητικό παράδειγμα αφορά τα συστήματα αναγνώρισης προσώπου, τα οποία έχουν αποδειχθεί ανακριβή για άτομα με σκούρο δέρμα, καθώς και για γυναίκες. Αυτό μπορεί να οδηγήσει σε σοβαρές συνέπειες, όπως η σύλληψη ή ακόμα και η καταδίκη αθώων ατόμων λόγω της ανακριβούς αναγνώρισης. Για παράδειγμα, το σύστημα αναγνώρισης προσώπου της Amazon (Rekognition) παρουσίασε μεγαλύτερη ακρίβεια στις λευκές ανδρικές μορφές σε σχέση με άλλες φυλετικές και έμφυλες ομάδες.

Στο πεδίο της υγειονομικής περίθαλψης, οι αλγόριθμοι AI που χρησιμοποιούνται για να προβλέψουν την κατάσταση υγείας των ασθενών μπορεί να επιδεινώσουν τις ανισότητες στην περίθαλψη. Έρευνες έχουν δείξει ότι ορισμένα συστήματα που αναλύουν ιατρικά δεδομένα έχουν εκπαιδευτεί με δεδομένα που ευνοούν πιο προνομιούχες κοινωνικές ομάδες. Έτσι, ενδέχεται να μην αναγνωρίζουν ή να παρέχουν λιγότερη προσοχή σε ασθενείς από κατώτερες κοινωνικές τάξεις, με αποτέλεσμα την άνιση μεταχείριση και καθυστερημένη διάγνωση.

Πηγή εικόνας και δικαιώματα χρήσης: Freepik

Μπορεί όμως το AI να γίνει δίκαιο και να εξαλειφθούν οι προκαταλήψεις;

Παρόλο που τεχνικοί λογισμικού εργάζονται σκληρά ώστε να βρούν λύση στο πρόβλημα των προκαταλήψεων στα δεδομένα ,το συγκεκριμένο ζήτημα δε μπορεί να λυθεί με έναν απλό αλγόριθμο ή μια μαθηματική συνάρτηση. Τα δεδομένα ,με τα οποία το εκάστοτε σύστημα εκπαιδεύεται, πρέπει να είναι αντιπροσωπευτικά όλων των κοινωνικών ομάδων και να μην αναπαράγουν ιστορικές αδικίες ή στερεότυπα. Ειδικότερα, θα πρέπει να αποφεύγονται δεδομένα που περιλαμβάνουν προκατειλημμένες αντιλήψεις και να μειωθεί η ισχυροποίηση τους. Αν π.χ. τα δεδομένα περιλαμβάνουν παραδείγματα που είναι κυρίως από μια συγκεκριμένη φυλή ή φύλο, το σύστημα θα εκπαιδευτεί με ελλιπή και προκατειλημμένα πρότυπα. Το πιο σημαντικό κομμάτι όμως είναι η συνεχής εκπαίδευση των τεχνικών λογισμικού και η ευαισθητοποίηση, καθώς πρέπει να γίνει κατανοητό από όλους το πόσο αρνητικές επιπτώσεις μπορεί να έχουν τα συγκεκριμένα λανθασμένα δεδομένα στον κόσμο.

Πηγή εικόνας και δικαιώματα χρήσης: Freepik

Η εξάλειψη των στερεοτύπων από τα συστήματα τεχνητής νοημοσύνης αποτελεί ένα σοβαρό ζήτημα στον κόσμο της τεχνολογίας. Αν και η ίδια η τεχνολογία προσφέρει τεράστιες δυνατότητες για βελτίωση της καθημερινής μας ζωής, η εφαρμογή της σε τομείς όπως η εργασία, η υγεία, η εκπαίδευση και η δικαιοσύνη, απαιτεί ιδιαίτερη προσοχή ώστε να αποφευχθούν οι κοινωνικές διακρίσεις. Είναι ξεκάθαρο ότι οι προκαταλήψεις που ενσωματώνονται στα δεδομένα και τους αλγόριθμους μπορούν να αναπαράγουν και να ενισχύσουν τις ανισότητες, καταστρέφοντας την εμπιστοσύνη του κόσμου στα συστήματα AI.

Με τη σωστή προσέγγιση, τα συστήματα AI μπορεί να μετατραπούν σε ένα πραγματικά  αξιόπιστο εργαλείο για την κοινωνία, βοηθώντας στην εξάλειψη των ανισοτήτων. Μόνο εμείς μπορούμε να βελτιώσουμε αυτό το εργαλείο που μας δίνεται και να το διατηρήσουμε ηθικό και δίκαιο για τον κόσμο.


ΕΝΔΕΙΚΤΙΚΕΣ ΠΗΓΕΣ
  • Harvard, Can AI Be Fair and Unbiased?, διαθέσιμο εδώ 
  • Levity, AI Bias – What Is It and How to Avoid It?, διαθέσιμο εδώ

 

TA ΤΕΛΕΥΤΑΙΑ ΑΡΘΡΑ

Νάσια Κουτσούνη
Νάσια Κουτσούνη
Γεννήθηκε και ζει στην Αθήνα. Σπουδάζει στο τμήμα Μηχανικών Πληροφορικής και Υπολογιστών του Πανεπιστημίου Δυτικής Αττικής και ασχολείται με το κομμάτι του software. Της αρέσουν τα βιντεοπαιχνίδια, η μουσική και η φωτογραφία.