Τα “έξυπνα” αυτοκίνητα χωρίς οδηγό χτυπούν συχνότερα ανθρώπους με σκούρο δέρμα

Σοβαρότερο ακόμα είναι ένα δεύτερο ζήτημα που αναδεικνύει η έρευνα, δηλαδή πως οι κατασκευάστριες εταιρείες δε δημοσιεύουν τα δεδομένα τους στους επιστήμονες, παρότι υπάρχουν σαφή ζητήματα δημόσιου συμφέροντος και ασφάλειας. 

Η τεχνητή νοημοσύνη μπαίνει ολοένα και πιο δυναμικά στη ζωή μας κι όπως είναι λογικό το επιστημονικό ενδιαφέρον για τους τρόπους και τις συνέπειες της εφαρμογής της στην καθημερινότητά μας προσελκύουν διαρκώς το επιστημονικό ενδιαφέρον. Σοκαριστικά θα μπορούσαν να χαρακτηριστούν τα ευρήματα έρευνας του Πολυτεχνείου της Τζώρτζια στις ΗΠΑ, που εντόπισαν ότι οι αλγόριθμοι στους οποίους βασίζονται τα συστήμα εντοπισμού αντικειμένων των “έξυπνων” αυτόματων αμαξιών χωρίς οδηγό, έχουν “ρατσιστικές προκαταλήψεις”. Κι αυτό γιατί έχουν μεγαλύτερες πιθανότητες να χτυπήσουν οποιονδήποτε δεν είναι λευκός, καθώς οι ανιχνευτές τους, όπως αισθητήρες και κάμερες είναι προγραμματισμένες να εντοπίζουν ευκολότερα ανθρώπους με πιο ανοιχτό τόνο δέρματος.

“Σ’ έναν ιδανικό κόσμο, οι ακαδημαϊκοί θα ήλεγχαν τα πραγματικά μοντέλα και τα δοκιμαστικά περιβάλλοντα των επιμέρους αυτοκινητοβιομηχανιών”, ανέφερε στο τουίτερ η διευθύντρια του Ινστιτούτου “Τεχνητή Νοημοσύνη Τώρα”, Κ¨ειτ Κρόφορντ. “Δεδομένου όμως ότι αυτά ποτέ δε δίνονται στη δημοσιότητα (ένα πρόβλημα αυτό καθεαυτό, τέτοιες έρευνες φωτίζουν πολύ πραγματικούς κινδύνους”. Ο “ιδανικός κόσμος” που περιγράφει η επιστήμονας, είναι, χωρίς να το ξέρει, ο σοσιαλισμός, όπου η επιστημονική έρευνα βρισκόταν στο σύνολό της στην υπηρεσία του κοινωνικού συνόλου και όχι της κερδοφορίας ιδιωτικών επιχειρήσεων, που βλέπουν την έρευνα ως “προσωπική τους περιουσία”, που πρέπει να διαφυλάξουν από ανταγωνιστές, αλλά και “ενοχλητικές” κρατικές παρεμβάσεις.

Δεν είναι η πρώτη φορά που η τεχνητή νοημοσύνη βρίσκεται στο στόχαστρο για ρατσιστικές πρακτικές. Τ0 2015 είχε ξεσπάσει σάλος, όταν το σύστημα αναγνώρισης εικόνων εμφάνιζε τη λεζάντα “γορίλας”, κάτω από πρόσωπα Αφροαμερικανών.

Σύμφωνα με την έρευνα τα μοντέλα αναγνώρισης αντικειμένων των αυτοκινήτων δοκιμάστηκαν κυρίως στη βάση λευκών πεζών, αλλά και δε δόθηκε αυξημένη έμφαση στην εκμάθηση από τα λιγοστά παραδείγματα πιο σκούρων πεζών που συμπεριλήφθηκαν, ζήτημα που θα λυνόταν ευκολότερα αν απλώς είχαν εξαρχής συμπεριληφθεί περισσότεροι.

Αυτό συμβαίνει γιατί τα αλγοριθμικά συστήματα “μαθαίνουν” στη βάση των πληροφοριών που λαμβάνουν. Αν δεν τους δοθεί επαρκής αριθμός μαύρων γυναικών στη φάση “εκμάθησης”, θα δυσκολευτούν να τις αναγνωρίσουν όταν αρχίσει η κανονική τους χρήση.

Η Joy Buolamwini, Αμερικανίδα επιστήμονας πληροφορικής  στο ΜΙΤ με καταγωγή από την Γκάνα, έχει ιδρύσει την οργάνωση “Λίγκα Δικαιοσύνης στους Αλγόριθμους”, ώστα να αντιμετωπιστούν οι προκαταλήψεις σε λογισμικά λήψεις αποφάσεων.

“Καθώς η τεχνητή νοημοσύνη συνεχίζει να αναπτύσσεται, οι τεχνολογικές εταιρείες έχουν ευθύνη να διασφαλίσουν πως τα προϊόντα τους χρησιμοποιούνται για να ενισχύσουν τις κοινότητες, όχι για να βαθύνουν τις φυλετικές ανισότητες” ανέφερε η ίδια προς το Ίδρυμα Φορντ. Όσο η διασφάλιση μιας τέτοιας ισότητας εναπόκειται απλώς στην καλή διάθεση των εταιρειών, το μέλλον δεν προδιαγράφεται και τόσο αισιόδοξο σε αυτό το θέμα.

Με πληροφορίες από telesur

Facebook Twitter Google+ Εκτύπωση Στείλτε σε φίλο

Κάντε ένα σχόλιο: