Zalecenia Departamentu Obrony USA w sprawie etycznego wykorzystania sztucznej inteligencji

6 listopada, 2019

Dokument został opracowany na zlecenie kierownictwa Departamentu Obrony USA przez grupę ekspertów, pracowników IT globalnych korporacji oraz zatrudnionych profesorów przez techniczne uczelnie wyższe. Raport pod tytułem „AI Principles: Recommendations on the Ethical Use of Artificial Intelligence by the Department of Defense” odnosi się do używania sztucznej inteligencji w wojskowości i projektach cywilnych. Dokument jest zestawieniem wytycznych na temat wdrażania i używania SI, „zanim dojdzie do incydentu”.

Potencjalne porównanie inwestowania w sztuczną inteligencję USA oraz Chin. Źródło: https://www.defenseone.com/feature/artificial-intelligence-pro-con/

Najważniejsze wnioski, na które wskazują eksperci:

  • USA już teraz obawia się o zwiększającą się przewagę technologiczną w pracach nad sztuczną inteligencją na rzecz Chin i Rosji.
  • Ludzie powinni wiedzieć jakie pozytywne efekty ma wypracować sztuczna inteligencja w danym projekcie.
  • Systemy AI nie powinny szkodzić ludziom.
  • Algorytmy AI powinny być przejrzyste i możliwe do kontrolowania.
  • Projektanci systemów SI powinni na wczesnym etapie definiować zakres działania technologii. Nie można wykraczać poza inne obszary.
  • Ludzie powinni mieć możliwość kontrolowania SI w dowolnym momencie. W razie konieczności powinni mieć możliwość jej wyłączenia.

Wytyczne dla wojskowości i cywilnych obszarów gospodarki zawierają również zalecenia w zakresie inwestowania w technologie sztucznej inteligencji, stworzenia pomiarów niezawodności, a także zarządzania ryzykiem w przypadku incydentów.

Pozostałe badania zlecone przez Departament Obrony są dostępne na stronie: https://innovation.defense.gov

Sztuczna inteligencja w cuglach

Project Maven. Film instruktażowy. Źródło: https://www.youtube.com/watch?v=5UfF121mFiQ

Armia amerykańska nie wyjaśnia polityki dotyczącej prac badawczych nad sztuczną inteligencją, ale oficjalnie wiadomo, że sprawdza wykorzystanie tej technologii w zastosowaniach wojskowych.

Decyzja Departamentu Obrony USA zlecająca ekspertom z zewnątrz opracowanie wytycznych na temat wdrażania i używania SI może być mydleniem oczu. Pracownicy Google już dawno protestowali przeciwko wykorzystaniu sztucznej inteligencji w projekcie Maven, który mieli opracować dla Pentagonu. Projekt dotyczył ulepszenia wojskowych dronów przy użyciu sztucznej inteligencji.

Tymczasem Departament Obrony od wielu lat pracuje nad systemem zaawansowanego automatycznego namierzania i zabijania (ATLAS). Technologia wdrożona w dowolnym pojeździe porówna dane z wielu czujników, być może nawet z wielu pojazdów. Stworzy mapę najbardziej niebezpiecznych celów, następnie zidentyfikuje je na polu walki i wskaże załodze położenie wroga, którego należy wyeliminować w pierwszej kolejności. Ilość szczegółów z czujników będzie zależała od konkretnego algorytmu. Daje to możliwość potencjalnego wykorzystania SI na polu walki bezpośrednio pomiędzy żołnierzami wrogich armii.

Od pewnego czasu trwa debata na temat wykorzystania sztucznej inteligencji w zastosowaniach wojskowych. Już w 2015 r. na łamach ONZ zastanawiano się, czy SI może być używana jako broń. Od tego czasu w siłę urosła kampania STOP KILLER ROBOTS, która zwraca uwagę na niemoralne wykorzystanie sztucznej inteligencji do działań wojskowych przez rządy USA, Chin, Izraela, Południowej Korei, Rosji i Wielkiej Brytanii. Krótki filmu instruktażowy jest na stronie internetowej https://www.stopkillerrobots.org

Czy ten artykuł był pomocny?

Oceniono: 0 razy

Picture of Adrian Ścibor

Adrian Ścibor

W ramach działań związanych z cyberbezpieczeństwem odpowiada w AVLab za przeprowadzanie testów rozwiązań ochronnych przed zagrożeniami. Opracowuje strategie oraz narzędzia, które pomagają w ochronie danych i systemów przed cyberatakami. Współuczestnik międzynarodowej grupy non-profit AMTSO, która zrzesza ekspertów IT.
Picture of Adrian Ścibor

Adrian Ścibor

W ramach działań związanych z cyberbezpieczeństwem odpowiada w AVLab za przeprowadzanie testów rozwiązań ochronnych przed zagrożeniami. Opracowuje strategie oraz narzędzia, które pomagają w ochronie danych i systemów przed cyberatakami. Współuczestnik międzynarodowej grupy non-profit AMTSO, która zrzesza ekspertów IT.

PODZIEL SIĘ:

guest
0 komentarzy
najstarszy
najnowszy oceniany
Inline Feedbacks
View all comments

Zapisz się na newsletter

Informacje o cyberbezpieczeństwie prosto na skrzynkę pocztową!

Dodatkowo otrzymasz poradnik „Jak bezpiecznie funkcjonować w cyfrowym świecie”

[ninja_tables id=”27481″]

\r\n <\/div>\r\n<\/div>\r\n","isUserRated":"0","version":"7.6.29","wc_post_id":"19372","isCookiesEnabled":"1","loadLastCommentId":"0","dataFilterCallbacks":[],"phraseFilters":[],"scrollSize":"32","is_email_field_required":"1","url":"https:\/\/avlab.pl\/wp-admin\/admin-ajax.php","customAjaxUrl":"https:\/\/avlab.pl\/wp-content\/plugins\/wpdiscuz\/utils\/ajax\/wpdiscuz-ajax.php","bubbleUpdateUrl":"https:\/\/avlab.pl\/wp-json\/wpdiscuz\/v1\/update","restNonce":"345dce2522","is_rate_editable":"0","menu_icon":"https:\/\/avlab.pl\/wp-content\/plugins\/wpdiscuz\/assets\/img\/plugin-icon\/wpdiscuz-svg.svg","menu_icon_hover":"https:\/\/avlab.pl\/wp-content\/plugins\/wpdiscuz\/assets\/img\/plugin-icon\/wpdiscuz-svg_hover.svg"}; var wpdiscuzUCObj = {"msgConfirmDeleteComment":"Are you sure you want to delete this comment?","msgConfirmCancelSubscription":"Are you sure you want to cancel this subscription?","msgConfirmCancelFollow":"Are you sure you want to cancel this follow?","additionalTab":"0"}; -->