The Guardian: Το σύστημα AI «Lavender» διάλεξε 37.000 πιθανούς στόχους για τους βομβαρδισμούς στη Γάζα
Η βρετανική εφημερίδα The Guardian, επικαλούμενη ενημερωμένες πηγές, ανέφερε ότι το Ισραήλ βασίστηκε στον βομβαρδισμό της Γάζας σε μια βάση δεδομένων που υποστηρίζεται από τεχνητή νοημοσύνη που εντόπισε 37.000 πιθανούς στόχους.
Η εφημερίδα επεσήμανε τη χρήση του συστήματος τεχνητής νοημοσύνης που ονομάζεται “Lavender“, που επέτρεψε σε Ισραηλινούς στρατιωτικούς αξιωματούχους να σκοτώσουν μεγάλο αριθμό Παλαιστινίων πολιτών, ειδικά κατά τις πρώτες εβδομάδες και μήνες του πολέμου.
Σύμφωνα με το δημοσίευμα, υπάρχουν μαρτυρίες σχετικά με τις άμεσες εμπειρίες των ισραηλινών αξιωματούχων πληροφοριών στη χρήση συστημάτων μηχανικής μάθησης για να βοηθήσουν στον εντοπισμό στόχων κατά τη διάρκεια του πολέμου στη Γάζα, ο οποίος συνεχίζεται από τις 7 Οκτωβρίου.
Οι μαρτυρίες επιβεβαίωσαν ότι το “Lavender” έπαιξε κεντρικό ρόλο στον πόλεμο, καθώς επεξεργαζόταν μεγάλες ποσότητες δεδομένων για να εντοπίσει γρήγορα πιθανούς στόχους “μικρών μαχητών” και 4 από αυτούς που κατέθεσαν εξήγησαν ότι σε πρώιμο στάδιο του πολέμου, το Lavender έκανε μια λίστα με 37.000 άτομα. Παλαιστίνιοι που υποστηρίχτηκε ότι ανήκουν στη Χαμάς ή στην Τζιχάντ.
Οι «τυφλές» βόμβες
Οι επιθέσεις που πραγματοποιήθηκαν μετά τον εντοπισμό των στόχων από το “Lavender” χρησιμοποίησαν μη καθοδηγούμενα πυρομαχικά γνωστά ως οι “τυφλές βόμβες “, που οδήγησαν στην καταστροφή ολόκληρων σπιτιών και τη δολοφονία όλων των κατοίκων τους.
Η ευρέως διαδεδομένη βρετανική εφημερίδα επιβεβαίωσε ότι η χρήση τεχνικών τεχνητής νοημοσύνης εγείρει μια σειρά από νομικά και ηθικά ερωτήματα και επιφέρει μια αλλαγή στη σχέση μεταξύ στρατιωτικού προσωπικού και μηχανών.
Εμπειρογνώμονες του διεθνούς ανθρωπιστικού δικαίου που μίλησαν στην εφημερίδα εξέφρασαν την ανησυχία τους για τις συζητήσεις για τον ισραηλινό στρατό που δέχεται παράπλευρες ζημιές έως και 20 αμάχων, για μαχητές χαμηλότερης βαθμίδας. Είπαν ότι οι στρατοί πρέπει να αξιολογούν την αναλογικότητα κάθε χτυπήματος ξεχωριστά.
Το Lavender αναπτύχθηκε από το επίλεκτο τμήμα πληροφοριών του IDF ( ισραηλινός στρατός) , Unit 8200, το οποίο είναι παρόμοιο με την Υπηρεσία Εθνικής Ασφάλειας των ΗΠΑ ή το GCHQ του Ηνωμένου Βασιλείου.
Αρκετές πηγές περιέγραψαν πώς, για ορισμένες κατηγορίες στόχων, ο IDF εφάρμοσε μια προεπιτρεπόμενη εκτίμηση του αριθμού των αμάχων που θα μπορούσαν να σκοτωθούν πριν εγκρίνει ένα χτύπημα.
Αξιωματικός των μυστικών υπηρεσιών είπε: “Δεν θέλει το Ισραήλ να σπαταλήσει ακριβές βόμβες σε ασήμαντους ανθρώπους. Είναι πολύ ακριβές για τη χώρα και υπάρχει έλλειψη από αυτές.”
Ένας άλλος είπε ότι το κύριο ερώτημα που αντιμετώπισαν ήταν εάν η “παράπλευρη ζημιά” σε αμάχους θα επέτρεπε μια επίθεση.
Ο ίδιος πρόσθεσε ότι “συνήθως πραγματοποιούμε επιθέσεις με “τυφλές βόμβες “, αυτό σημαίνει κυριολεκτικά να χτυπήσουμε ολόκληρο σπίτι με τους ενοίκους του. Αλλά, ακόμα κι αν η επίθεση αποτραπεί, θα προχωρήσεις αμέσως στον επόμενο στόχο καθώς λόγω συστήματος οι στόχοι δεν τελειώνουν ποτέ. Υπάρχουν 36.000 σε αναμονή».
Σε απάντηση της δημοσίευσης μαρτυριών στο +972 , ο ισραηλινός στρατός ανέφερε σε ανακοίνωσή του ότι οι επιχειρήσεις του πραγματοποιήθηκαν σύμφωνα με τους κανόνες της αναλογικότητας του διεθνούς δικαίου. Είπε ότι οι “τυφλές βόμβες “είναι «τυποποιημένα όπλα» που χρησιμοποιούνται από τους πιλότους των IDF με τρόπο που εξασφαλίζει «υψηλό επίπεδο ακρίβειας».
Η δήλωση του IDF περιέγραψε το “Lavender” ως βάση δεδομένων που χρησιμοποιείται “για τη σύγκριση πηγών πληροφοριών, προκειμένου να παραχθούν ενημερωμένα στρώματα πληροφοριών για τους στρατιωτικούς πράκτορες τρομοκρατικών οργανώσεων”. Αυτή δεν είναι μια λίστα επιβεβαιωμένων στρατιωτικών στοιχείων που είναι κατάλληλα για επίθεση. Επίσης στο ίδιο κείμενο υπογραμμίζεται ότι ” ο Οι IDF δεν χρησιμοποιεί σύστημα τεχνητής νοημοσύνης που εντοπίζει τρομοκράτες ακτιβιστές ή προσπαθεί να προβλέψει εάν ένα άτομο είναι τρομοκράτης ή όχι».
Μετάφραση: Ουαλίντ Ελίας
www.ertnews.gr
Διαβάστε περισσότερα… Read More