World News in Greek

«Γενοκτονία υποβοηθούμενη από AI»: Το Ισραήλ φέρεται να χρησιμοποιούσε βάση δεδομένων για δολοφονίες στη Γάζα

Ta Nea 

Η αναφερόμενη χρήση από τον ισραηλινό στρατό μιας μη ελεγμένης και άγνωστης βάσης δεδομένων τεχνητής νοημοσύνης για τον εντοπισμό στόχων για την εκστρατεία βομβαρδισμού του στη Γάζα έχει ανησυχήσει τους ειδικούς ανθρωπίνων δικαιωμάτων και τεχνολογίας που είπαν ότι θα μπορούσε να ισοδυναμεί με «εγκλήματα πολέμου».

Η ισραηλινοπαλαιστινιακή έκδοση +972 Magazine και το εβραϊκό μέσο ενημέρωσης Local Call ανέφεραν πρόσφατα ότι ο ισραηλινός στρατός απομόνωσε και εντόπιζε χιλιάδες Παλαιστίνιους ως πιθανούς βομβαρδιστικούς στόχους χρησιμοποιώντας ένα σύστημα στόχευσης με τη βοήθεια AI που ονομάζεται Lavender.

«Αυτή η βάση δεδομένων είναι υπεύθυνη για τη σύνταξη καταλόγων θανάτων έως και 37.000 στόχων», δήλωσε την Πέμπτη ο Ρόρι Τσάλαντς του Al Jazeera, ο οποίος αναφέρει από την κατεχόμενη Ανατολική Ιερουσαλήμ.

Οι ανώνυμοι αξιωματούχοι των ισραηλινών μυστικών υπηρεσιών που μίλησαν στα μέσα ενημέρωσης είπαν ότι η Lavender είχε ποσοστό σφάλματος περίπου 10%. «Αλλά αυτό δεν εμπόδισε τους Ισραηλινούς να το χρησιμοποιήσουν για να επιταχύνουν τον εντοπισμό συχνά χαμηλού επιπέδου στελέχη της Χαμάς στη Γάζα και να τους βομβαρδίσουν», είπε ο Challands.

Γίνεται σαφές ότι ο ισραηλινός στρατός «αναπτύσσει μη δοκιμασμένα συστήματα τεχνητής νοημοσύνης… για να βοηθήσει στη λήψη αποφάσεων σχετικά με τη ζωή και τον θάνατο αμάχων», είπε στο Al Jazeera ο Marc Owen Jones, επίκουρος καθηγητής Μέσης Ανατολής και ψηφιακών ανθρωπιστικών επιστημών στο Πανεπιστήμιο Hamid Bin Khalifa.

«Ας είμαστε ξεκάθαροι: Αυτή είναι μια γενοκτονία υποβοηθούμενη από την τεχνητή νοημοσύνη και στο εξής, πρέπει να υπάρξει έκκληση για μορατόριουμ στη χρήση της τεχνητής νοημοσύνης στον πόλεμο»

Οι ισραηλινές δημοσιεύσεις ανέφεραν ότι αυτή η μέθοδος οδήγησε σε πολλούς από τους χιλιάδες θανάτους αμάχων στη Γάζα.

Την Πέμπτη, το υπουργείο Υγείας της Γάζας δήλωσε ότι τουλάχιστον 33.037 Παλαιστίνιοι έχουν σκοτωθεί και 75.668 τραυματίστηκαν σε ισραηλινές επιθέσεις από τις 7 Οκτωβρίου.

Η χρήση AI «παραβιάζει» το ανθρωπιστικό δίκαιο

«Οι άνθρωποι που αλληλεπιδρούσαν με τη βάση δεδομένων AI ήταν συχνά απλώς μια σφραγίδα. Θα εξέταζαν εξονυχιστικά αυτήν τη λίστα δολοφονιών για ίσως 20 δευτερόλεπτα πριν αποφασίσουν αν θα δώσουν το πράσινο φως για μια αεροπορική επιδρομή ή όχι», ανέφερε ο Challands.

Σε απάντηση σε διευρυμένη κριτική, ο ισραηλινός στρατός είπε ότι οι αναλυτές του πρέπει να πραγματοποιήσουν «ανεξάρτητες εξετάσεις» για να επαληθεύσουν ότι οι προσδιορισμένοι στόχοι πληρούν τους σχετικούς ορισμούς σύμφωνα με το διεθνές δίκαιο και τους πρόσθετους περιορισμούς που ορίζονται από τις δυνάμεις του.

Διέψευσε την ιδέα ότι η τεχνολογία είναι ένα «σύστημα», αλλά αντ’ αυτού «απλώς μια βάση δεδομένων, σκοπός της οποίας είναι η διασταύρωση πηγών πληροφοριών, προκειμένου να παραχθούν ενημερωμένα στρώματα πληροφοριών για τους στρατιωτικούς πράκτορες τρομοκρατικών οργανώσεων».

Αλλά το γεγονός ότι υπήρξαν «πέντε έως 10 αποδεκτοί θάνατοι αμάχων» για κάθε Παλαιστίνιο μαχητή που ήταν επιδιωκόμενος στόχος δείχνει γιατί υπάρχουν τόσοι πολλοί θάνατοι αμάχων στη Γάζα, σύμφωνα με τον Challands.

Ο καθηγητής Τόμπι Γουόλς, ειδικός τεχνητής νοημοσύνης στο Πανεπιστήμιο της Νέας Νότιας Ουαλίας στο Σίδνεϊ, είπε ότι οι νομικοί μελετητές πιθανότατα θα υποστηρίξουν ότι η χρήση στόχευσης τεχνητής νοημοσύνης παραβιάζει το διεθνές ανθρωπιστικό δίκαιο.

«Από τεχνική άποψη, αυτές οι τελευταίες ειδήσεις δείχνουν πόσο δύσκολο είναι να κρατάς έναν άνθρωπο σε επαφή, παρέχοντας ουσιαστική επίβλεψη σε συστήματα τεχνητής νοημοσύνης που κλιμακώνουν τον πόλεμο τρομερά και τραγικά», είπε στο Al Jazeera.

Читайте на 123ru.net