Zalecenia Departamentu Obrony USA w sprawie etycznego wykorzystania sztucznej inteligencji

6 listopada, 2019

Dokument został opracowany na zlecenie kierownictwa Departamentu Obrony USA przez grupę ekspertów, pracowników IT globalnych korporacji oraz zatrudnionych profesorów przez techniczne uczelnie wyższe. Raport pod tytułem „AI Principles: Recommendations on the Ethical Use of Artificial Intelligence by the Department of Defense” odnosi się do używania sztucznej inteligencji w wojskowości i projektach cywilnych. Dokument jest zestawieniem wytycznych na temat wdrażania i używania SI, „zanim dojdzie do incydentu”.

Potencjalne porównanie inwestowania w sztuczną inteligencję USA oraz Chin. Źródło: https://www.defenseone.com/feature/artificial-intelligence-pro-con/

Najważniejsze wnioski, na które wskazują eksperci:

  • USA już teraz obawia się o zwiększającą się przewagę technologiczną w pracach nad sztuczną inteligencją na rzecz Chin i Rosji.
  • Ludzie powinni wiedzieć jakie pozytywne efekty ma wypracować sztuczna inteligencja w danym projekcie.
  • Systemy AI nie powinny szkodzić ludziom.
  • Algorytmy AI powinny być przejrzyste i możliwe do kontrolowania.
  • Projektanci systemów SI powinni na wczesnym etapie definiować zakres działania technologii. Nie można wykraczać poza inne obszary.
  • Ludzie powinni mieć możliwość kontrolowania SI w dowolnym momencie. W razie konieczności powinni mieć możliwość jej wyłączenia.

Wytyczne dla wojskowości i cywilnych obszarów gospodarki zawierają również zalecenia w zakresie inwestowania w technologie sztucznej inteligencji, stworzenia pomiarów niezawodności, a także zarządzania ryzykiem w przypadku incydentów.

Pozostałe badania zlecone przez Departament Obrony są dostępne na stronie: https://innovation.defense.gov

Sztuczna inteligencja w cuglach

Project Maven. Film instruktażowy. Źródło: https://www.youtube.com/watch?v=5UfF121mFiQ

Armia amerykańska nie wyjaśnia polityki dotyczącej prac badawczych nad sztuczną inteligencją, ale oficjalnie wiadomo, że sprawdza wykorzystanie tej technologii w zastosowaniach wojskowych.

Decyzja Departamentu Obrony USA zlecająca ekspertom z zewnątrz opracowanie wytycznych na temat wdrażania i używania SI może być mydleniem oczu. Pracownicy Google już dawno protestowali przeciwko wykorzystaniu sztucznej inteligencji w projekcie Maven, który mieli opracować dla Pentagonu. Projekt dotyczył ulepszenia wojskowych dronów przy użyciu sztucznej inteligencji.

Tymczasem Departament Obrony od wielu lat pracuje nad systemem zaawansowanego automatycznego namierzania i zabijania (ATLAS). Technologia wdrożona w dowolnym pojeździe porówna dane z wielu czujników, być może nawet z wielu pojazdów. Stworzy mapę najbardziej niebezpiecznych celów, następnie zidentyfikuje je na polu walki i wskaże załodze położenie wroga, którego należy wyeliminować w pierwszej kolejności. Ilość szczegółów z czujników będzie zależała od konkretnego algorytmu. Daje to możliwość potencjalnego wykorzystania SI na polu walki bezpośrednio pomiędzy żołnierzami wrogich armii.

Od pewnego czasu trwa debata na temat wykorzystania sztucznej inteligencji w zastosowaniach wojskowych. Już w 2015 r. na łamach ONZ zastanawiano się, czy SI może być używana jako broń. Od tego czasu w siłę urosła kampania STOP KILLER ROBOTS, która zwraca uwagę na niemoralne wykorzystanie sztucznej inteligencji do działań wojskowych przez rządy USA, Chin, Izraela, Południowej Korei, Rosji i Wielkiej Brytanii. Krótki filmu instruktażowy jest na stronie internetowej https://www.stopkillerrobots.org

Czy ten artykuł był pomocny?

Oceniono: 0 razy

Picture of Adrian Ścibor

Adrian Ścibor

W ramach działań związanych z cyberbezpieczeństwem odpowiada w AVLab za przeprowadzanie testów rozwiązań ochronnych przed zagrożeniami. Opracowuje strategie oraz narzędzia, które pomagają w ochronie danych i systemów przed cyberatakami. Współuczestnik międzynarodowej grupy non-profit AMTSO, która zrzesza ekspertów IT.
Picture of Adrian Ścibor

Adrian Ścibor

W ramach działań związanych z cyberbezpieczeństwem odpowiada w AVLab za przeprowadzanie testów rozwiązań ochronnych przed zagrożeniami. Opracowuje strategie oraz narzędzia, które pomagają w ochronie danych i systemów przed cyberatakami. Współuczestnik międzynarodowej grupy non-profit AMTSO, która zrzesza ekspertów IT.

PODZIEL SIĘ:

guest
0 komentarzy
najstarszy
najnowszy oceniany
Inline Feedbacks
View all comments

Zapisz się na newsletter

Informacje o cyberbezpieczeństwie prosto na skrzynkę pocztową!

Dodatkowo otrzymasz poradnik „Jak bezpiecznie funkcjonować w cyfrowym świecie”

Wyrażam zgodę na przesłanie oferty drogą telefoniczną przez IT Partners security sp. z o.o. z siedzibą Katowicach ul.Padereskiego 35 na podany przeze mnie adres e-mail zgodnie z ustawą z dnia 10 maja 2018 roku o ochronie danych osobowych (Dz. Ustaw z 2018, poz. 1000) oraz zgodnie z Rozporządzeniem Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE (RODO).

Wyrażam zgodę na przesłanie oferty drogą mailową przez IT Partners security sp. z o.o. z siedzibą Katowicach ul.Padereskiego 35 na podany przeze mnie adres e-mail zgodnie z ustawą z dnia 10 maja 2018 roku o ochronie danych osobowych (Dz. Ustaw z 2018, poz. 1000) oraz zgodnie z Rozporządzeniem Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE (RODO).

[ninja_tables id=”27481″]