Sztuczna inteligencja zdobywa coraz większą popularność. ChatGPT stał się pierwszym powszechnym narzędziem AI, z którego korzystają miliony ludzi. Odpowiedzią na produkt OpenAI jest z kolei Google Bard, który w zeszłym tygodniu zadebiutował w Polsce. Okazuje się jednak, że korzystanie z usług AI może wiązać się z zagrożeniami i potencjalnym wyciekiem wrażliwych i poufnych danych.
Porównanie ChatGPT vs Google Bard
Zobacz nasze porównanie ChatGPT i Bard w zakresie pytań technicznych. Zadaliśmy tzw. sztucznej inteligencji dociekliwe pytania z kategorii: bezpieczeństwa, administracji IT, DevOps.
Korzystanie z dużych modeli językowych (LLM), takich jak ChatGPT, stało się bardzo popularne wśród pracowników, którzy poszukują szybkich wskazówek lub pomocy przy tworzeniu kodu oprogramowania. Niestety, narzędzia zwiększające produktywność, są skonfigurowane w sposób, który pozwala na wyciek poufnych danych biznesowych. Korzystanie z narzędzi takich jak ChatGPT lub Bard sprawia, że nieumyślne przesyłanie poufnych lub chronionych informacji (w ramach zapytań) jest niezwykle łatwe.
![Check Point wprowadzą ochronę przed nieautoryzowanym dostępem do ChatGPT i Bard 1 google bard ai](https://avlab.pl/wp-content/uploads/2023/07/google-bard-ai.png)
W jaki sposób można się zabezpieczyć?
Wiele usług sztucznej inteligencji twierdzi, że nie przechowuje przesłanych informacji w pamięci podręcznej ani nie używa przesłanych danych do trenowania swoich silników sztucznej inteligencji. Zespół ChatGPT naprawił niedawno kluczową lukę w zabezpieczeniach, która ujawniała dane osobowe, w tym dane karty kredytowej i wiadomości na czacie.
Tymczasem eksperci firmy Check Point Software wskazują, iż istnieją narzędzia i usługi (ich usługa Harmony Connect), która posiadają filtry do kategoryzacji stron internetowych, aby zablokować przesyłanie poufnych lub chronionych danych za pośrednictwem tych usług.
![Check Point wprowadzą ochronę przed nieautoryzowanym dostępem do ChatGPT i Bard 2 check point harmony ai block](https://avlab.pl/wp-content/uploads/2023/07/check-point-harmony-ai-block.jpg)
Check Point umożliwia zatem firmom zapobieganie niewłaściwemu wykorzystaniu sztucznej inteligencji za pomocą kontroli aplikacji i filtrowania adresów URL, identyfikując i blokując dostęp do tych aplikacji oraz zapobiegając utracie danych (DLP). Pozwala to organizacjom blokować nieautoryzowane użycie niezatwierdzonych aplikacji poprzez szczegółową, bezpieczną kontrolę dostępu do sieci dla użytkowników lokalnych, w chmurze, punktach końcowych, urządzeniach mobilnych i zaporach sieciowych.
Dzięki temu administratorzy mogą blokować przesyłanie określonych typów danych (kod oprogramowania, dane osobowe, informacje poufne itp.) podczas korzystania z aplikacji takich jak ChatGPT i Bard. Analitycy Check Point Software ostrzegają, że jeśli organizacje nie posiadają skutecznych zabezpieczeń dla tego typu aplikacji i usług AI, ich prywatne dane mogą stać się nieodłączną częścią dużych modeli językowych i ich odpowiedzi na zapytania.
Czy ten artykuł był pomocny?
Oceniono: 0 razy