Veľké jazykové modely, ako ChatGPT, Bard a Bing Chat, sú na prvý pohľad fascinujúce nástroje. Avšak aký vplyv môže mať ich nekontrolované používanie vo firmách? A ako môžu pomôcť hackerom k ešte sofistikovanejším útokom? V odpovedi na tieto otázky Vám prinášame detailný pohľad na svet veľkých jazykových modelov.
Umelá inteligencia ovplyvňuje naše životy už dlho. Využíva sa v mnohých odboroch a sférach života, a to vďaka svojej schopnosti spracovávať a analyzovať obrovské množstvo dát, predvídať výsledky a vykonávať automatizované úlohy. Zabraňuje spamom, aby sa dostali do našich mailových schránok, odporúča nám obsah na YouTube alebo Netflixe, ale aj predvída choroby, či pomáha riadiť autonómne vozidlá. V poslednom polroku však titulné strany novín plnia informácie o veľkých jazykových modeloch, ako je ChatGPT, Bard alebo Bing Chat. Tie, podľa mnohých, majú potenciál transformovať ľudskú spoločnosť veľmi zásadným spôsobom.
Najpoužívanejšei jazykové modely
ChatGPT pochádza z dielne spoločnosti OpenAI. Chatbot pritiahol pozornosť svojou schopnosťou poskytovať, formou konverzácie, prirodzene znejúce odpovede na najrôznejšie otázky. Používa veľký jazykový model, ktorý bol vytrénovaný na prehliadanie obrovských dátových sád a generovanie odpovedí. Jeho posledná verzia už vie pracovať aj s obrázkami a je možné ho ovládať pomocou reči.
Bing Chat patrí spoločnosti Microsoft a funguje podobne ako ChatGPT. Chatbot ponúka odpovede na otázky, vrátane zdrojov, na základe ktorých bola odpoveď vygenerovaná. Bing taktiež umožňuje používateľom vybrať si medzi rôznymi štýlmi konverzácie.
Bard vyvinula spoločnosť Google. Chatbot je postavený na inej technológii ako prvé dva modely, zvanej PaLM 2, a teda generovanie odpovedí prebieha iným spôsobom. Chatbot užívateľovi vygeneruje viac variant odpovede. Najnovšia verzia umožňuje vlastný fact checking pomocou vyhľadávača a taktiež sa vie napojiť na váš Gmail, Disk alebo Dokumenty.
Veľké jazykové modely sú pokročilé nástroje umelej inteligencie, ktoré sa učia z obrovského množstva textových dát a sú schopné generovať texty, ktoré vyzerajú, ako by ich napísal človek. Keďže dáta na tréning týchto modelov vychádzajú v podstate z majority obsahu internetu, zahŕňajú aj kopu slovenských zdrojov. A teda aj slovenské texty nimi vygenerované znejú plynulo, sú gramaticky aj štylisticky správne a vety sú zrozumiteľné. Je však dôležité zdôrazniť, že umelá inteligencia nerozumie textu v pravom zmysle slova – vytvára odpovede na základe štatistických vzorcov, ktoré sa naučila, nie na základe skutočného porozumenia obsahu. Po prvom ohmataní a úžase z jazykových modelov si môže človek položiť otázku, ako by sa umelá inteligencia dala využiť aj v pracovnom živote?
AI v praxi: Zefektívnenie práce, alebo bezpečnostná hrozba?
Používanie jazykových modelov má potenciál zvýšiť produktivitu, automatizovať opakované úlohy, a tým šetriť čas zamestnancov na iné, komplexnejšie úlohy. Ďalej môžu veľké jazykové modely podporiť kreativitu. Napríklad, vďaka schopnosti generovať kreatívny a presvedčivý obsah môže byť ChatGPT použitý na vytváranie nápadov na marketingové kampane, príspevky na sociálne siete alebo blogové články.
Pri nadšenej práci s AI vo firemnom prostredí je však potrebné mať na zreteli aj potenciálne nástrahy. Okrem toho, že výstupy generatívnej AI sú preukázateľne plné nepresností a zavádzajúcich informácií, by mali firmy pamätať aj na potenciálne úniky dát. Prvý veľký zákaz používania umelej inteligencie zaviedla kórejská firma Samsung. Ukázalo sa, že jeden zo zamestnancov pri svojej komunikácii s umelou inteligenciou využil interné dáta firmy a tým mohol spôsobiť ich únik do rúk OpenAI. Využívanie jazykových modelov postupne zakázali aj firmy ako Amazon, Apple, Deutsche Bank a varoval pred nimi dokonca aj Google, ktorý sám jazykový model vyvíja.
Firma OpenAI na tieto zistenia reagovala vytvorením anonymného režimu v ChatGPT, v ktorom užívateľom zadané dáta nie sú využívané na ďalšie trénovanie jazykového modelu a po určitej dobe sú zmazané. Podobne Microsoft spustil spoplatnenú službu Bing Chat Enterprise, ktorá zaručuje, že žiadne dáta, ktoré užívateľ modelu odovzdá, nebudú využité na učenie samotného modelu.
Umelá inteligencia v službách hackerov
Veľké jazykové modely sa okrem vyššie spomenutých účelov dajú zneužiť na kyberkriminalitu. Phishingový e-mail vytvorený s pomocou AI môže pôsobiť oveľa dôveryhodnejšie ako tie, ktoré nám do spamu chodili pred príchodom umelej inteligencie. A to nielen kvôli tomu, že neobsahujú toľko gramatických a štylistických chýb, ktoré sú sprievodnou známkou, že ide o podvrh.
Server Hackernews informoval o fungovaní jazykového modelu FraudGPT, ktorý funguje v hlbinách darkwebu. Za mesačný poplatok 200 amerických dolárov bot sľubuje možnosť vytvoriť spear phishingový e-mail, crackingové nástroje alebo pomoc s cardingom (obchodovanie s kreditnými kartami a ich neoprávnené používanie).
Magazín Security World poukázal na fakt, že umelá inteligencia útočníkom tiež môže pomôcť s hľadaním dôležitých informácií v otvorených zdrojoch. Ak chce útočník vedieť, aké technológie nejaká spoločnosť používa, môže ručne hľadať súvislosti v pracovných ponukách alebo životopisoch bývalých zamestnancov. Závery tohto prieskumu mu potom môžu pomôcť pri vytvorení presvedčivého podvodného e-mailu.
Tento postup je bežne používaný už dnes, ale s pomocou nástrojov umelej inteligencie môže byť tento proces efektívnejší a jeho výstupy ešte presvedčivejšie. Taktiež sa dá predpokladať, že možnosť automatizácie tvorby phishingových e-mailov povedie k tomu, že sa nebudú útočníci obmedzovať len na vybrané, vysoko hodnotné ciele, ale budú pôsobiť vo väčšom meradle. Dôkazom, že sa k tejto fáze približujeme už dnes, sú posledné dáta, ktoré uvádzajú, že počet phishingových útokov sa od začiatku roka zniekoľkonásobil. Takto vygenerovaný phishingový e-mail obdržal tento rok aj zakladateľ Zoznamu, Ivo Lukačovič. Útočník chcel po ňom výkupné 1,6 bitcoinu s tým, že sa Lukačovičovi vyhrážal tým, že ak nezaplatí, spácha teroristický útok.
Ochrana dát v ére generatívej umelej inteligencie
Ako sme už spomínali, vo firemnom prostredí generatívna umelá inteligencia predstavuje tak prelomový nástroj, ako aj potenciálne riziko. Aby firmy účinne chránili svoju reputáciu a citlivé dáta, je kľúčové do interných bezpečnostných politík začleniť mechanizmy pre autentizáciu a sledovanie generovaného obsahu.
5 tipov pre prácu s generatívnou umelou inteligenciou vo firemnom prostredí.
Buďte ostražití pri zdieľaní dát
Neposkytujte interné, citlivé alebo zákonom chránené dáta (napr. tie podliehajúce GDPR).
Majte na pamäti, že dáta môžu byť využité na učenie modelu a teoreticky sa môžu objaviť v odpovediach pre iných užívateľov.
Dodržujte interné pravidlá
Dodržujte interné pravidlá pre nakladanie s tajnými a citlivými informáciami.
Nikdy nezdieľajte obchodné tajomstvo, či neverejné informácie prostredníctvom verejne dostupných nástrojov.
Overte si, ako s dátami pracuje poskytovateľ nástroja
Zistite si, či poskytovateľ nástroja ukladá vstupné dáta a ak áno, ako ich následne využíva.
Ak je možnosť zakázať učenie na vašich dátach, využite to.
Pokiaľ je to možné, využívajte izolované inštancie, ktoré nikam neposielajú dáta vašej spoločnosti.
Overujte, čo AI vygeneruje
Venujte pozornosť výstupom generatívnej umelej inteligencie a overujte ich pravdivosť a relevanciu. AI modely môžu generovať nepresné, či vymyslené odpovede.
Vzdelávanie a školenie zamestnancov
Zabezpečte pravidelné školenia zamestnancov, týkajúce sa digitálnej gramotnosti a etiky pri používaní AI.
Vytvorte jasné pravidlá a smernice pre prácu s AI nástrojmi vo vašej spoločnosti.
V O2 sme k používaniu týchto nástrojov pristúpili otvorene, ale zároveň konzervatívne. Našim zamestnancom umožňujeme prácu so spomínanou izolovanou inštanciou jazykového modelu ChatGPT, ktorý sa neučí na dátach, ktoré zadávajú naši ľudia. Zamestnancov tiež podporujeme v preškoľovaní v tejto oblasti.
Razantnejšiu cestu ukázala firma Samsung, ktorá zakázala prácu s ChatGPT a ďalšími nástrojmi úplne. Pokiaľ nechcete byť takto striktní, medzi najdôležitejšie odporúčania patria pravidelné školenia zamestnancov v oblasti digitálnej gramotnosti a etiky vo vzťahu k používaniu umelej inteligencie. Vytvorením firemnej kultúry, ktorá kladie dôraz na etické a zodpovedné používanie technológie, môže firma minimalizovať riziká a maximalizovať výhody, ktoré generatívna umelá inteligencia ponúka.
Na záver – čo si z článku odniesť:
Veľké jazykové modely môžu zvýšiť produktivitu a kreativitu vo firmách, ale je dôležité si uvedomiť, že nerozumejú textu, ktorý generujú, a teda odpovede môžu obsahovať nepresné alebo zavádzajúce informácie. Pre prácu s týmito modelmi je potrebné kritické myslenie a overovanie faktov.
Firmy by mali byť ostražité, keďže možný únik citlivých dát pri používaní veľkých jazykových modelov je, ako ukázal príklad firmy Samsung, reálnou hrozbou.
Kvôli presvedčivým výstupom generatívnej umelej inteligencie sme vstúpili do obdobia, kedy nedokážeme jednoducho spoznať, či sú e-maily alebo fotografie, ktoré nám niekto zaslal, vytvorené človekom, alebo umelo. Táto skutočnosť nahráva hackerom a kyberútočníkom.
Na minimalizáciu rizík a maximalizáciu výhod je kľúčové začleniť do firemných bezpečnostných politík pravidlá pre autentizáciu a sledovanie generovaného obsahu a pravidelne školiť zamestnancov v oblasti digitálnej gramotnosti a etiky.