Korzystanie z AI z biznesie powinno być rozważnie wdrożone

6 września, 2024

Dwa na pięć przedsiębiorstw (44%) na świecie już doświadczyło negatywnych konsekwencji związanych z użyciem generatywnej sztucznej inteligencji.

Ponad połowa pracowników korzystających z narzędzi GenAI w pracy obawia się naruszenia praw intelektualnych, a 63% widzi zagrożenie w niedokładności otrzymywanych wyników.

Decydując się na wdrożenie AI ponad połowa firm (53%) korzysta z gotowych, publicznie dostępnych modeli lub narzędzi, nie dokonując w nich niemal żadnych zmian.

Robi tak sześć na dziesięć podmiotów (63%) z branży prawniczej, a także co drugie przedsiębiorstwo z sektora zdrowotnego i finansowego.

Są to wyniki z badania agencji McKinsey.

AI może kłamać, oszukiwać

Ogólnodostępne modele AI, w tym duże modele językowe (Large Language Models, LLM) wciąż są niedokładne i jeśli nie są w stanie znaleźć odpowiedzi na zadane pytanie, zdarza im się kłamać. Niekiedy – jak w przypadku modelu Meta AI, który zaprzeczał, że lipcowy zamach na Donalda Trumpa się nie odbył – jest to łatwe do wykrycia. W wielu sytuacjach jednak dostrzeżenie błędu maszyny jest praktycznie niewykonalne.

Oszukiwanie, kłamanie to też nie jedyne wyzwanie, z jakim przychodzi mierzyć się twórcom narzędzi AI. Innym jest potężna ilość energii, jakiej potrzeba do trenowania i korzystania z tej technologii.

Selekcja danych dla ich ochrony i lepszych wyników

Dane to dla sztucznej inteligencji paliwo pozwalające korzystać z nich w wartościowy sposób. Jednocześnie zadbanie o jakość i odpowiednie zabezpieczenie zasobów wykorzystywanych przez modele AI stawia przed firmami szereg trudności.

  • Siedmiu na dziesięciu (70%) pracowników przebadanych przez McKinseya wskazuje na problemy w definiowaniu procesu zarządzania informacją oraz integracji modeli AI z danymi.
  • Niemal co czwarte przedsiębiorstwo (23%) zaobserwowało też negatywne skutki wynikające z niedokładnych wyników dostarczanych przez narzędzia AI.

Duże modele językowe (LLM) nigdy nie powinny mieć swobodnego dostępu do wszystkich danych firmowych. Zamiast tego powinno się dostarczać im jedynie wycinek zasobów, który jako dane kontekstowe posłuży do właściwego przetworzenia i zrozumienia promptu, czyli zapytania kierowanego do modeli generatywnej sztucznej inteligencji. Postępując w ten sposób, firma nie tylko ograniczy ryzyko podawania przez algorytm AI błędnych informacji, ale także zwiększy poziom bezpieczeństwa i ochrony m.in. przed wyciekiem danych.

Zapytania do AI tylko dla wtajemniczonych

Na fali zainteresowania możliwościami ChatGPT użytkownicy masowo zaczęli tworzyć zapytania, z założeniem, że skoro chatbot rozumie to, co do niego piszemy to zrozumie również, co mamy na myśli. Jednak pisanie precyzyjnych promptów jest bardzo trudne, a doskonalenie tej techniki wymaga czasu. Niewłaściwie wydane polecenie może przy tym sprawić, że sztuczna inteligencja zacznie wprowadzać w błąd. Dlatego z perspektywy bezpieczeństwa modeli AI w biznesie ważne jest, by tworzeniem i utrzymywaniem promptów zajmowały się wyłącznie osoby programujące model AI pod konkretne zastosowanie czy specyfikę danej firmy.

Zwykły użytkownik nie powinien być obarczany odpowiedzialnością za wydanie modelowi AI prawidłowego polecenia. Najlepiej, jeśli w ogóle nie będzie mógł zobaczyć ani zmodyfikować zapytania, a jego interakcja z modelem sprowadzi się do jednego kliknięcia w button. Pozwoli to uprościć korzystanie z narzędzi AI, a także zapewni wyższą dokładność wyników. podpowiada Leszek Tasiemski z WithSecure.

Korzystanie z rozwiązań wykorzystujących sztuczną inteligencję może przynieść ogromne korzyści firmom w każdej branży pod warunkiem, że jest ono przemyślane i poparte szkoleniami z zastosowania nowych technologii.

Czy ten artykuł był pomocny?

Oceniono: 0 razy

Picture of Adrian Ścibor

Adrian Ścibor

W ramach działań związanych z cyberbezpieczeństwem odpowiada w AVLab za przeprowadzanie testów rozwiązań ochronnych przed zagrożeniami. Opracowuje strategie oraz narzędzia, które pomagają w ochronie danych i systemów przed cyberatakami. Współuczestnik międzynarodowej grupy non-profit AMTSO, która zrzesza ekspertów IT.
Picture of Adrian Ścibor

Adrian Ścibor

W ramach działań związanych z cyberbezpieczeństwem odpowiada w AVLab za przeprowadzanie testów rozwiązań ochronnych przed zagrożeniami. Opracowuje strategie oraz narzędzia, które pomagają w ochronie danych i systemów przed cyberatakami. Współuczestnik międzynarodowej grupy non-profit AMTSO, która zrzesza ekspertów IT.

PODZIEL SIĘ:

guest
0 komentarzy
najstarszy
najnowszy oceniany
Inline Feedbacks
View all comments

Wyrażam zgodę na przesłanie oferty drogą telefoniczną przez IT Partners security sp. z o.o. z siedzibą Katowicach ul.Padereskiego 35 na podany przeze mnie adres e-mail zgodnie z ustawą z dnia 10 maja 2018 roku o ochronie danych osobowych (Dz. Ustaw z 2018, poz. 1000) oraz zgodnie z Rozporządzeniem Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE (RODO).

Wyrażam zgodę na przesłanie oferty drogą mailową przez IT Partners security sp. z o.o. z siedzibą Katowicach ul.Padereskiego 35 na podany przeze mnie adres e-mail zgodnie z ustawą z dnia 10 maja 2018 roku o ochronie danych osobowych (Dz. Ustaw z 2018, poz. 1000) oraz zgodnie z Rozporządzeniem Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE (RODO).

[ninja_tables id=”27481″]