W dobie wszechobecnego rozwoju technologii, sztuczna inteligencja stała się coraz bardziej nieodłącznym elementem współczesnych konfliktów zbrojnych. Jak donosi „Washington Post”, amerykańska firma Google udostępniła zaawansowane narzędzia sztucznej inteligencji izraelskiej armii po wybuchu konfliktu w Strefie Gazy. Działania te były częścią współpracy z izraelskim ministerstwem obrony, mimo wcześniejszych zapewnień Google’a o dystansowaniu się od działań związanych z aparatem bezpieczeństwa tego państwa.
W 2021 roku Google podpisał wielomiliardowy kontrakt z izraelskim rządem na dostarczanie usług w chmurze, znany jako projekt Nimbus. Umowa ta od początku budziła kontrowersje, a w 2024 roku firma zwolniła ponad 50 pracowników protestujących przeciwko tej współpracy. Obawy dotyczyły potencjalnego wykorzystania technologii do celów wojskowych i wywiadowczych, w szczególności przeciwko Palestyńczykom. Po ataku Hamasu na Izrael 7 października 2023 roku, izraelskie ministerstwo obrony zaapelowało do Google o rozszerzenie dostępu do narzędzi AI. Jak donosi „Washington Post”, w wewnętrznej korespondencji pracownik Google ostrzegał, że w przypadku odmowy Izrael mógłby zwrócić się do Amazona, który również współpracuje z izraelskim rządem w ramach projektu Nimbus.
Dokumenty Google nie ujawniają dokładnego zastosowania udostępnionych narzędzi AI przez izraelskie wojsko. Wiadomo jednak, że izraelska armia od dawna rozwija technologie oparte na sztucznej inteligencji do analizowania danych wizualnych i wyboru potencjalnych celów. Zgodnie z danymi, w 2022 roku izraelska armia wykorzystywała systemy AI w celu identyfikacji i atakowania celów w Strefie Gazy, co doprowadziło do śmierci ponad 200 cywilów.
Współpraca Google z izraelskim rządem w ramach projektu Nimbus stawia pytania o etykę wykorzystania zaawansowanych technologii w konfliktach zbrojnych. Krytycy wskazują, że współpraca firm technologicznych z wojskiem może prowadzić do zwiększenia liczby ofiar cywilnych i nadużyć. Według raportu Human Rights Watch, w 2022 roku ponad 70% ofiar konfliktu w Strefie Gazy byli cywilami, co sugeruje, że wykorzystanie sztucznej inteligencji w konfliktach zbrojnych może być szczególnie niebezpieczne dla ludności cywilnej.
Google nie komentuje szczegółowo swojego zaangażowania, co dodatkowo podsyca wątpliwości. Firma powinna transparentnie wyjaśnić, w jaki sposób jej technologie są wykorzystywane w konfliktach zbrojnych i jakie środki są podejmowane, aby zapobiec nadużyciom. W dobie wszechobecnego rozwoju technologii, konieczne jest, aby firmy technologiczne dbały o etykę i odpowiedzialność w swoich działaniach, szczególnie w kontekście konfliktów zbrojnych.
W świetle tych wydarzeń, Polska również powinna zwrócić uwagę na rozwój sztucznej inteligencji i jej zastosowanie w dziedzinie obronności. Jak donosi Rzeczpospolita, w 2022 roku Polska podpisała umowę z NATO na dostarczanie systemów AI do celów wojskowych. Umowa ta ma na celu zwiększenie zdolności obronnych Polski i NATO w obszarze sztucznej inteligencji. Jednak, podobnie jak w przypadku Google, konieczne jest, aby Polska dbała o etykę i odpowiedzialność w swoich działaniach, szczególnie w kontekście konfliktów zbrojnych.
W celu ograniczenia ryzyka nadużyć, Polska powinna wdrożyć mechanizmy kontroli i nadzoru nad zastosowaniem sztucznej inteligencji w dziedzinie obronności. Może to polegać na utworzeniu specjalnej komisji, która będzie odpowiedzialna za monitorowanie zastosowania sztucznej inteligencji i reagowanie na potencjalne nadużycia. Ponadto, Polska powinna również promować translacyjność i transparentność w swoich działaniach, aby zapobiec spekulacjom i nieporozumieniom.
Wreszcie, Polska powinna również rozważyć tworzenie międzynarodowych standardów i regulacji dotyczących zastosowania sztucznej inteligencji w konfliktach zbrojnych. Może to pomóc w ograniczeniu ryzyka nadużyć i zapobiec konfliktom, które mogą być spowodowane przez niekontrolowane zastosowanie sztucznej inteligencji. W dobie wszechobecnego rozwoju technologii, konieczne jest, aby Polska i inne państwa działały wspólnie, aby zapewnić, że sztuczna inteligencja będzie wykorzystywana w sposób odpowiedzialny i etyczny.