«Ελπίζω αυτά να μην προορίζονται για όπλα»: Πώς οι συλλέκτες δεδομένων από τη Συρία εκπαιδεύουν την τεχνητή νοημοσύνη

Εικονογράφηση από τον Jafar Safatli για το UntoldMag.org, χρησιμοποιείται με άδεια.

Αυτή η ανάρτηση της Milagros Miceli δημοσιεύθηκε για πρώτη φορά από το UntoldMag στις 18 Απριλίου 2024. Αυτή η τροποποιημένη έκδοση αναδημοσιεύεται στην Global Voices στο πλαίσιο συμφωνίας ανταλλαγής περιεχομένου. 

Γνώρισα τη Φατμά τον Ιούνιο του 2019 στη Σόφια της Βουλγαρίας. Τέσσερα χρόνια νωρίτερα, σε ηλικία 17 ετών, είχε αναγκαστεί να εγκαταλείψει το σπίτι της στο Χαλέπι μαζί με ολόκληρη την οικογένειά της. Ώσπου έφτασε στη Φινλανδία μέσω Σόφιας.

Οι διακινητές της είχαν υποσχεθεί ένα σπίτι και ένα αυτοκίνητο στη Φινλανδία έναντι του ποσού των 9.000 ευρώ, που θα τους έδινε. Όμως η υπόσχεση έμεινε ανεκπλήρωτη. Αντ’ αυτού, μετά από έξι μήνες, η οικογένεια της απελάθηκε στη Βουλγαρία, επειδή «τα δακτυλικά τους αποτυπώματα είχαν εντοπιστεί πρώτα στη Σόφια».

Η Φατμά, 21 ετών σήμερα, ζούσε με την οικογένειά της σε έναν καταυλισμό προσφύγων στη βουλγαρική πρωτεύουσα. Ενώ βοηθούσε τον πατέρα της στο κομμωτήριο του καταυλισμού, εργαζόταν και με μερική απασχόληση σε εταιρεία επισημείωσης δεδομένων, στην οποία πραγματοποιούσε επιτόπια έρευνα. Την προσέλαβε η εταιρεία στον καταυλισμό προσφύγων.

Κατά τη διάρκεια της αρχικής μας συνομιλίας, βρισκόταν στο γραφείο της εταιρείας, καθισμένη δίπλα στην Ντιάνα, μια άλλη Σύρια που ζητούσε άσυλο και εργαζόταν στην επισημείωση εικόνων ανθρώπων με βάση τη φυλή, την ηλικία και το φύλο.

Αντίθετα, η Φατμά ήταν απορροφημένη σε ένα έργο, που αφορούσε δορυφορικές εικόνες και σημασιολογική κατάτμηση, ένα κρίσιμο έργο για την υπολογιστική όραση, που περιλαμβάνει τον σχολαστικό διαχωρισμό και την επισημείωση κάθε εικονοστοιχείου σε μια εικόνα. Αυτή η μορφή επεξεργασίας δεδομένων έχει ιδιαίτερη σημασία για τη δημιουργία δεδομένων εκπαίδευσης για την τεχνητή νοημοσύνη, ιδίως για συστήματα υπολογιστικής όρασης, που ενσωματώνονται σε συσκευές όπως κάμερες, ιπτάμενα drone ή ακόμη και όπλα.

Η Φατμά εξήγησε ότι η δουλειά της ήταν κυρίως να διαχωρίσει «τα δέντρα από τους θάμνους και τα αυτοκίνητα από τους ανθρώπους, τους δρόμους και τα κτίρια». Μετά από αυτή την ταξινόμηση, τοποθετούσε τις αντίστοιχες ετικέτες για την αναγνώριση κάθε αντικειμένου.

Η συλλογή δεδομένων απαιτεί δεξιότητα

Αν το εξηγήσουμε με αυτόν τον τρόπο, το αντικείμενο της εργασίας μπορεί να φαίνεται ασήμαντο και απλοϊκό. Τέτοιου είδους εργασίες εμπίπτουν στη γνωστή ως μικροεργασία, εργασία με κλικ ή, όπως το αναφέρω εγώ, συλλογή δεδομένων. Πρόκειται για το είδος εργασίας, που αφορά τη δημιουργία δεδομένων για την εκπαίδευση και την επικύρωση συστημάτων τεχνητής νοημοσύνης.

Σύμφωνα με την Παγκόσμια Τράπεζα, υπάρχουν 154 έως 435 εκατομμύρια συλλέκτες δεδομένων παγκοσμίως,  με πολλούς από αυτούς να βρίσκονται στην παγκόσμια πλειοψηφία ή να έχουν εκτοπιστεί από αυτήν. Συχνά εργάζονται σε πλατφόρμες εξωτερικής ανάθεσης ή εταιρείες ως ελεύθεροι επαγγελματίες κερδίζοντας λίγα χρήματα ανά έργο ή ανάθεση, χωρίς  εργασιακή ασφάλεια, όπως άδεια επί πληρωμή λόγω ασθένειας, που συνήθως συναντάμε σε πιο παραδοσιακές εργασιακές σχέσεις.

Οι συλλέκτες δεδομένων παράγουν δεδομένα με διάφορους τρόπους, όπως αποσπώντας πληροφορίες από το διαδίκτυο, καταγράφοντας την φωνή τους ή ανεβάζοντας selfies. Όπως και η Φατμά, συμμετέχουν συχνά με εργασίες επισημείωσης. Επιπλέον, οι συλλέκτες δεδομένων μπορούν να συμβάλλουν στην εποπτεία αλγορίθμων, όπως η αξιολόγηση των αποτελεσμάτων των συστημάτων συστάσεων σε πλατφόρμες όπως το Netflix ή το Spotify και η αξιολόγηση της χρησιμότητας, της καταλληλότητας και της τοξικότητάς τους.

Σε άλλες περιπτώσεις, οι συλλέκτες δεδομένων μπορούν να αναλάβουν να υποδυθούν απλώς ανύπαρκτα συστήματα τεχνητής νοημοσύνης και να λάβουν εντολή να «σκέφτονται σαν ρομπότ», ενώ για παράδειγμα προσποιούνται ότι είναι ένα chatbot.

Παρά τον καθοριστικό της ρόλο στην ανάπτυξη και τη συντήρηση των τεχνολογιών τεχνητής νοημοσύνης, η συλλογή δεδομένων συχνά υποτιμάται ως ασύμαντη μικροεργασία, που περιλαμβάνει μόνο μερικά κλικ, και απορρίπτεται ως εργασία χαμηλών δεξιοτήτων ή χειρωνακτική εργασία.

Ρώτησα τη Φατμά αν οι δορυφορικές εικόνες, πάνω στις οποίες εργαζόταν, θα μπορούσαν να είναι από τη Συρία. Μου απάντησε ότι η αρχιτεκτονική και τα οχήματα της φαίνονταν οικεία. Αναρωτήθηκα αν το εκτόπισμά της είχε αξιοποιηθεί ως τεχνογνωσία. Κοιτάζοντας την οθόνη, ψιθύρισε: «Ελπίζω αυτά να μην προορίζονται για όπλα». Ούτε εκείνη ούτε εγώ μπορούσαμε να είμαστε σίγουρες.

Το γνωστό και το άγνωστο

Η διάδοση των αυτόνομων μη επανδρωμένων drone και των τεχνολογιών σμήνους έχει γνωρίσει εκθετική αύξηση τα τελευταία χρόνια, καθώς διευκολύνεται από την ενσωμάτωση της τεχνητής νοημοσύνης στις διαδικασίες αναγνώρισης, εντοπισμού στόχων και λήψης αποφάσεων.

Ενδεικτικά, οι τεχνολογίες αναγνώρισης προσώπου έχουν χρησιμοποιηθεί για τη διατήρηση του διαχωρισμού και της παρακολούθησης του παλαιστινιακού λαού, ενώ τα αυτοματοποιημένα όπλα έχουν διαδραματίσει καθοριστικό ρόλο στη συνεχιζόμενη γενοκτονία στη Γάζα. Εταιρείες όπως η ισραηλινή SmartShooter καυχιούνται για τις θανατηφόρες δυνατότητές τους με το σλόγκαν «Μία σφαίρα, ένα χτύπημα».

Τα μη επανδρωμένα drone παρακολούθησης, η προγνωστική ανάλυση και τα συστήματα λήψης αποφάσεων χρησιμοποιούνται για τον στρατηγικό σχεδιασμό στην «πρόληψη απειλών» και την παρακολούθηση σε πραγματικό χρόνο κατά μήκος των συνοριακών περιοχών. Για παράδειγμα, η Ομοσπονδιακή Υπηρεσία Μετανάστευσης και Προσφύγων της Γερμανίας (BAMF) χρησιμοποιεί βιομετρικά στοιχεία εικόνας για την εξακρίβωση της ταυτότητας και βιομετρικά στοιχεία φωνής για την ανάλυση διαλέκτου, προκειμένου να εξακριβώσει τη χώρα καταγωγής των αιτούντων άσυλο και να αξιολογήσει την επιλεξιμότητά τους. Αυτό αποκαλύφθηκε από την ίδια τη BAMF σε απάντησή της προς ερώτημα, που τέθηκε από Γερμανούς βουλευτές. Οι συλλέκτες δεδομένων, που απασχολήθηκαν με σύμβαση υπεργολαβίας μέσω της πλατφόρμας Clickworker, συμμετείχαν στην παραγωγή των δειγμάτων φωνής, που απαιτήθηκαν για την ανάπτυξη του συστήματος.

Ευτυχώς, η εταιρεία δεδομένων στη Βουλγαρία ακολουθεί πολύ αυστηρή πολιτική απόρριψης αιτημάτων, που σχετίζονται με τεχνολογίες πολέμου, εξήγησε ο διευθυντής της Φατμά.

Πρόσθεσε ότι οι δορυφορικές εικόνες, που επισημάνθηκαν από την ομάδα, είχαν ζητηθεί από μια κεντροευρωπαϊκή εταιρεία, που αναπτύσσει συστήματα αυτόνομης πιλοτικής οδήγησης για αερομεταφορές και όχι όπλα. Η πληροφορία αυτή συσχετίζεται με την ιστοσελίδα του πελάτη. Ωστόσο, ο ιστότοπος αναφέρει επίσης ότι η τεχνολογία τους χρησιμοποιείται επιπλέον για μη επανδρωμένα εναέρια οχήματα (UAV), κοινώς γνωστά ως drones, με εφαρμογές που περιλαμβάνουν επιτήρηση.

Οι ηθικές ανησυχίες των εργαζομένων

Η παραβίαση της ιδιωτικής ζωής και η πιθανότητα δημιουργίας προφίλ με διακρίσεις είναι από τις πιο προφανείς ανησυχίες, που σχετίζονται με τα συστήματα τεχνητής νοημοσύνης, που εφαρμόζονται στην επιτήρηση των συνόρων και στον πόλεμο. Παρά τους κινδύνους που επηρεάζουν υπέρμετρα τις κοινότητές τους, μερικές φορές προκαλώντας θανατηφόρες απώλειες, οι περισσότεροι εργαζόμενοι δεν γνωρίζουν τον απώτερο σκοπό των δεδομένων που παράγουν.

Η ανάθεση συλλογής δεδομένων σε εξωτερικούς οργανισμούς, που συνήθως βρίσκονται μακριά από τη γεωγραφική θέση των αιτούντων, περιπλέκει τις προσπάθειες των εργαζομένων να περιηγηθούν στις περίπλοκες αλυσίδες εφοδιασμού, που υποστηρίζουν τη βιομηχανία της τεχνητής νοημοσύνης. Οι οδηγίες που δίνονται στους εργαζόμενους σπάνια παρέχουν λεπτομέρειες σχετικά με τον αιτούντα ή την προβλεπόμενη χρήση των δεδομένων.

Οι εταιρείες τεχνητής νοημοσύνης συχνά εκλογικεύουν το πέπλο της μυστικότητας ως μέσο διασφάλισης του ανταγωνιστικού τους πλεονεκτήματος.

Το γεγονός ότι οι συλλέκτες δεδομένων εντάσσονται σε βιομηχανικές δομές, που έχουν σχεδιαστεί για να τους κρατούν ανενημέρωτους και να υπόκεινται σε παρακολούθηση, αντίποινα και μισθολογική κλοπή, δεν σημαίνει ότι δεν έχουν ηθικές ανησυχίες σχετικά με την εργασία τους και τις εφαρμογές τεχνητής νοημοσύνης που υποστηρίζει.

Στην πραγματικότητα, υπήρξαν περιπτώσεις, όπου οι εργαζόμενοι προειδοποίησαν ρητά τους καταναλωτές για ζητήματα, που σχετίζονται με την προστασία της ιδιωτικής ζωής και άλλα ηθικά ζητήματα, που σχετίζονται με τα δεδομένα που παράγουν. Για παράδειγμα, το 2022, συλλέκτες δεδομένων από τη Βενεζουέλα ανέφεραν ανώνυμα ότι οι ρομποτικές ηλεκτρικές σκούπες Roomba τραβούν φωτογραφίες των χρηστών στο σπίτι, που στη συνέχεια βλέπουν οι εργαζόμενοι.

Οι συλλέκτες δεδομένων φέρουν ένα μοναδικό πλεονέκτημα, που μπορεί να παίξει καθοριστικό ρόλο στον έγκαιρο εντοπισμό των ηθικών ζητημάτων, που σχετίζονται με τα δεδομένα και την τεχνητή νοημοσύνη. Η παρότρυνση των καταναλωτών και της κοινωνίας στο σύνολό της να εναρμονιστούν μαζί τους για την επίτευξη μεγαλύτερης διαφάνειας στον αγωγό παραγωγής δεδομένων τεχνητής νοημοσύνης είναι ζωτικής σημασίας.


Η Milagros Miceli είναι κοινωνιολόγος και επιστήμονας πληροφορικής, επικεφαλής της ερευνητικής ομάδας Δεδομένα, Αλγοριθμικά Συστήματα και Ηθική στο Ινστιτούτο Weizenbaum. Είναι επίσης ερευνήτρια στο Ινστιτούτο Distributed AI Research (DAIR). Η έρευνά της επικεντρώνεται στις εργασιακές συνθήκες και τις ασυμμετρίες εξουσίας στον τομέα συλλογής δεδομένων, που ανατίθεται σε εξωτερικούς συνεργάτες, εξετάζοντας τον αντίκτυπό τους στα σύνολα δεδομένων μηχανικής μάθησης. Μέσα από ένα ευρύ φάσμα εργατοκεντρικών μεθοδολογιών, εμπλέκει ενεργά κοινότητες επισφαλών εργαζομένων από την παγκόσμια πλειοψηφία σε έργα έρευνας δράσης. Τα ευρύτερα ενδιαφέροντά της περιλαμβάνουν ζητήματα νομιμότητας και παραγωγής γνώσης στα δεδομένα, έρευνα υπό την ηγεσία της κοινότητας, εργατική οργάνωση και τη διασταύρωση των κριτικών μελετών δεδομένων και του ακτιβισμού των δεδομένων.

Ξεκινήστε τη συζήτηση

Συντάκτες, παρακαλώ σύνδεση »

Οδηγίες

  • Όλα τα σχόλια ελέγχονται. Μην καταχωρείτε το σχόλιο σας πάνω από μία φορά γιατί θα θεωρηθεί spam.
  • Παρακαλούμε, δείξτε σεβασμό στους άλλους. Σχόλια τα οποία περιέχουν ρητορική μίσους, προσβολές ή προσωπικές επιθέσεις δεν θα καταχωρούνται.