Ali lahko umetna inteligenca nadomesti kibernetsko varnost?

Ali lahko umetna inteligenca nadomesti kibernetsko varnost?

Kratek odgovor: umetna inteligenca ne bo popolnoma nadomestila kibernetske varnosti, bo pa prevzela precejšen del ponavljajočega se dela na področju SOC in varnostnega inženiringa. Če jo uporabljamo kot zmanjševalec šuma in povzemalnik – s človeškim nadzorom – pospeši triažo in določanje prioritet; če pa jo obravnavamo kot orakelj, lahko vnese tvegano lažno gotovost.

Ključne ugotovitve:

Področje uporabe : Umetna inteligenca nadomešča naloge in delovne procese, ne pa samega poklica ali odgovornosti.

Zmanjšanje truda : Uporabite umetno inteligenco za združevanje opozoril, jedrnate povzetke in triažo po vzorcih dnevnika.

Odgovornost za odločanje : Ohranite ljudi zaradi nagnjenosti k tveganju, obvladovanja incidentov in težkih kompromisov.

Odpornost proti zlorabi : Zasnova za takojšnje injiciranje, zastrupitev in poskuse izogibanja sovražniku.

Upravljanje : Uveljavljanje meja podatkov, možnosti revizije in izpodbojnih človeških preglasitev pri orodjih.

Ali lahko umetna inteligenca nadomesti infografiko o kibernetski varnosti

Članki, ki jih boste morda želeli prebrati po tem:

🔗 Kako se generativna umetna inteligenca uporablja v kibernetski varnosti
Praktični načini, kako umetna inteligenca krepi odkrivanje, odzivanje in preprečevanje groženj.

🔗 Orodja za testiranje vdorov umetne inteligence za kibernetsko varnost
Vrhunske rešitve z umetno inteligenco za avtomatizacijo testiranja in iskanje ranljivosti.

🔗 Je umetna inteligenca nevarna? Tveganja in realnost
Jasen pogled na grožnje, mite in odgovorne zaščitne ukrepe umetne inteligence.

🔗 Vodnik po najboljših orodjih za varnost umetne inteligence
Najboljša varnostna orodja, ki uporabljajo umetno inteligenco za zaščito sistemov in podatkov.


"Zamenjava" okvirja je past 😅

Ko ljudje rečejo »Ali lahko umetna inteligenca nadomesti kibernetsko varnost?« , običajno mislijo eno od treh stvari:

  • Zamenjajte analitike (ljudje niso potrebni)

  • Zamenjajte orodja (ena platforma umetne inteligence naredi vse)

  • Zamenjava rezultatov (manj kršitev, manj tveganja)

Umetna inteligenca je najmočnejša pri nadomeščanju ponavljajočega se truda in skrajšanju časa odločanja. Najšibkejša pa pri nadomeščanju odgovornosti, konteksta in presoje. Varnost ni le zaznavanje – gre za trnove kompromise, poslovne omejitve, politiko (uf) in človeško vedenje.

Saj veste, kako gre – vdor ni bil posledica "pomanjkanja opozoril". Šlo je za to, da nekdo ni verjel, da je opozorilo pomembno. 🙃


Kjer umetna inteligenca že »nadomešča« delo na področju kibernetske varnosti (v praksi) ⚙️

Umetna inteligenca že prevzema določene kategorije dela, čeprav je organizacijska shema še vedno videti enaka.

1) Triaža in združevanje opozoril

  • Združevanje podobnih opozoril v en sam incident

  • Odpravljanje podvajanja šumnih signalov

  • Razvrstitev po verjetnem vplivu

To je pomembno, ker ljudje pri triaži izgubijo voljo do življenja. Če umetna inteligenca le malo zmanjša hrup, je to kot da bi utišali požarni alarm, ki kriči že tedne 🔥🔕

2) Analiza dnevnika in odkrivanje anomalij

  • Odkrivanje sumljivih vzorcev pri hitrosti stroja

  • Označevanje »to je nenavadno v primerjavi z izhodiščem«

Ni popolno, je pa lahko dragoceno. Umetna inteligenca je kot detektor kovin na plaži – veliko piska, včasih je to pokrovček steklenice, občasno pa je to prstan 💍 ... ali ogrožen administratorski žeton.

3) Klasifikacija zlonamerne programske opreme in lažnega predstavljanja

  • Razvrščanje prilog, URL-jev, domen

  • Odkrivanje podobnih blagovnih znamk in vzorcev lažnega predstavljanja

  • Avtomatizacija povzetkov sklepov o peskovniku

4) Prednostno obvladovanje ranljivosti

Ne "kateri CVE-ji obstajajo" - vsi vemo, da jih je preveč. Umetna inteligenca pomaga odgovoriti na:

In ja, tudi ljudje bi to lahko počeli – če bi bil čas neskončen in bi nihče nikoli ne jemal počitnic.


Kaj naredi dobro različico umetne inteligence v kibernetski varnosti 🧠

To je del, ki ga ljudje preskočijo, nato pa krivijo "umetno inteligenco", kot da gre za en sam izdelek z občutki.

Dobra različica umetne inteligence v kibernetski varnosti ima običajno te lastnosti:

  • Visoka disciplina glede na razmerje signal-šum

    • Zmanjšati mora šum, ne pa ustvarjati dodatnega hrupa z domiselnim fraziranjem.

  • Razložljivost, ki pomaga v praksi

    • Ne roman. Ne vibracije. Pravi namigi: kaj je videlo, zakaj mu je mar, kaj se je spremenilo.

  • Tesna integracija z vašim okoljem

    • IAM, telemetrija končnih točk, stanje v oblaku, izdajanje vstopnic, popis sredstev ... neglamurozne stvari.

  • Vgrajen človeški nadzor

    • Analitiki ga morajo popravljati, uglaševati in včasih ignorirati. Kot mlajši analitik, ki nikoli ne spi, a občasno paničari.

  • Varnostno varno ravnanje s podatki

    • Jasne meje glede tega, kaj se shranjuje, uči ali ohranja. NIST AI RMF 1.0

  • Odpornost proti manipulaciji

Bodimo odkriti – veliko »varnosti z umetno inteligenco« odpove, ker je usposobljena, da zveni zanesljivo, ne pa da je pravilna. Zaupanje ni nadzor. 😵💫


Deli, ki jih umetna inteligenca težko nadomesti – in to je pomembnejše, kot se sliši 🧩

Tukaj je neprijetna resnica: kibernetska varnost ni samo tehnična. Je družbeno-tehnična. Gre za ljudi, sisteme in spodbude.

Umetna inteligenca se spopada z:

1) Poslovni kontekst in nagnjenost k tveganju

Varnostne odločitve so redko takšne: »Ali je slabo?«

  • Ali je dovolj resno, da ustavi prihodke

  • Ali se splača prekiniti postopek uvajanja

  • Ali bo vodstvena ekipa zaradi tega sprejela izpad

Umetna inteligenca lahko pomaga, vendar tega ne more prevzeti. Nekdo podpiše odločitev. Nekdo prejme klic ob 2. uri zjutraj 📞

2) Poveljevanje incidentov in koordinacija med ekipami

Med resničnimi incidenti je "delo" naslednje:

Umetna inteligenca lahko pripravi časovnico ali povzema dnevnike, seveda. Zamenjava vodstva pod pritiskom je ... optimistična. To je kot prositi kalkulator, naj izvede požarno vajo.

3) Modeliranje in arhitektura groženj

Modeliranje groženj je delno logika, delno ustvarjalnost, delno paranoja (večinoma zdrava paranoja).

  • Naštevanje, kaj bi lahko šlo narobe

  • Predvidevanje, kaj bo napadalec storil

  • Izbira najcenejšega nadzora, ki spremeni napadalčevo matematiko

Umetna inteligenca lahko predlaga vzorce, vendar prava vrednost izhaja iz poznavanja vaših sistemov, vaših ljudi, vaših bližnjic, vaših nenavadnih zapuščenih odvisnosti.

4) Človeški dejavniki in kultura

Lažno predstavljanje, ponovna uporaba poverilnic, senčna IT, površni pregledi dostopa – to so človeške težave, oblečene v tehnične kostume 🎭.
Umetna inteligenca lahko zazna, vendar ne more odpraviti, zakaj se organizacija obnaša tako, kot se.


Tudi napadalci uporabljajo umetno inteligenco - zato se igralno polje nagne vstran 😈🤖

Vsaka razprava o zamenjavi kibernetske varnosti mora vključevati očitno: napadalci ne mirujejo.

Umetna inteligenca pomaga napadalcem:

Torej, sprejemanje umetne inteligence s strani zagovornikov dolgoročno ni neobvezno. Gre bolj za to, kot da bi s seboj prinesli svetilko, ker je druga stran pravkar dobila očala za nočno gledanje. Nerodna metafora. Še vedno nekako drži.

Napadalci bodo ciljali tudi na same sisteme umetne inteligence:

Varnost je vedno bila igra mačke in miši. Umetna inteligenca samo naredi mačke hitrejše, miši pa bolj iznajdljive 🐭


Pravi odgovor: umetna inteligenca nadomešča naloge, ne odgovornosti ✅

To je "nerodna sredina", v kateri se znajde večina ekip:

  • Umetna inteligenca obvladuje obseg

  • Ljudje ravnajo s kolčki

  • Skupaj obvladujeta hitrost in presojo

V mojem lastnem testiranju varnostnih delovnih procesov je umetna inteligenca najboljša, če se z njo ravna tako:

  • Pomočnik za triažo

  • Povzetek

  • Korelacijski mehanizem

  • Pomočnik pri politiki

  • Prijatelj za pregled kode za tvegane vzorce

Umetna inteligenca je najslabša, če se z njo ravna tako:

  • Orakelj

  • Ena sama točka resnice

  • Obrambni sistem »nastavi in ​​pozabi«

  • Razlog za premalo osebja v ekipi (to se zgodi kasneje ... hudo)

To je kot najeti psa čuvaja, ki hkrati piše tudi e-pošto. Super. Ampak včasih laja na sesalnik in zgreši tipa, ki skače čez ograjo. 🐶🧹


Primerjalna tabela (najboljše možnosti, ki jih ekipe uporabljajo vsak dan) 📊

Spodaj je praktična primerjalna tabela - ni popolna, nekoliko neenakomerna, kot v resničnem življenju.

Orodje / Platforma Najboljše za (občinstvo) Cena Zakaj deluje (in kakšne so posebnosti)
Microsoft Sentinel Microsoft Learn Ekipe SOC, ki živijo v Microsoftovih ekosistemih $$ - $$$ Močni vzorci SIEM, ki so izvorni v oblaku; veliko konektorjev, lahko postane hrupno, če ni uglašeno ..
Splunk Splunk Enterprise Security Večje organizacije z obsežnim beleženjem in potrebami po meri $$$$ (pogosto $$$$, odkrito povedano) Zmogljivo iskanje + nadzorne plošče; neverjetno, ko je urejeno, boleče, ko nihče ne odgovarja za higieno podatkov
Googlove varnostne operacije Google Cloud Ekipe, ki želijo telemetrijo v upravljanem obsegu $$ - $$$ Dobro za velike količine podatkov; odvisno od zrelosti integracije, tako kot veliko stvari
CrowdStrike Falcon CrowdStrike Organizacije s poudarkom na končnih točkah in ekipe za odnose z javnostmi $$$ Močna vidljivost končnih točk; velika globina zaznavanja, vendar še vedno potrebujete ljudi, ki bodo spodbujali odziv
Microsoft Defender za končne točke Microsoft Learn Organizacije, ki temeljijo na M365 $$ - $$$ Tesna integracija z Microsoftom; lahko je odlično, lahko pa je »700 opozoril v čakalni vrsti«, če je napačno konfigurirano
Palo Alto Cortex XSOAR Palo Alto Networks SOC-ji, osredotočeni na avtomatizacijo $$$ Igralni priročniki zmanjšujejo trud; zahtevajo skrb ali pa avtomatizirajo motnje (ja, tudi to obstaja)
Platforma Wiz Wiz Ekipe za varnost v oblaku $$$ Močna preglednost v oblaku; pomaga hitro določiti prednostno nalogo pri tveganjih, vendar še vedno zahteva upravljanje
Platforma Snyk Organizacije, ki so najprej namenjene razvoju, AppSec $$ - $$$ Razvijalcem prijazni delovni procesi; uspeh je odvisen od uvedbe s strani razvijalcev, ne le od skeniranja

Majhna opomba: nobeno orodje ne "zmaga" samo po sebi. Najboljše orodje je tisto, ki ga vaša ekipa uporablja vsak dan, ne da bi se ji zamerila. To ni znanost, to je preživetje 😅


Realističen operativni model: kako ekipe zmagujejo z umetno inteligenco 🤝

Če želite, da umetna inteligenca bistveno izboljša varnost, je običajno naslednji postopek:

1. korak: Uporabite umetno inteligenco za zmanjšanje truda

  • Povzetki obogatitve opozoril

  • Priprava vozovnic

  • Kontrolni seznami za zbiranje dokazov

  • Predlogi poizvedb v dnevniku

  • Razlike v konfiguracijah glede na »Kaj se je spremenilo«

2. korak: Za potrditev in odločitev uporabite ljudi

  • Potrdite vpliv in obseg

  • Izberite ukrepe za zadrževanje

  • Usklajevanje popravkov med ekipami

3. korak: Avtomatizirajte varne stvari

Dobri cilji avtomatizacije:

  • Karantena znanih škodljivih datotek z visoko stopnjo zaupanja

  • Ponastavitev poverilnic po preverjeni ogrožatvi

  • Blokiranje očitno zlonamernih domen

  • Previdno uveljavljanje popravka odstopanj od politik

Tvegani cilji avtomatizacije:

  • Samodejna izolacija produkcijskih strežnikov brez zaščitnih ukrepov

  • Brisanje virov na podlagi negotovih signalov

  • Blokiranje velikih razponov IP-jev, ker se je "model tako zdel" 😬

4. korak: Upoštevanje izkušenj v kontrolnih mehanizmih

  • Uglaševanje po incidentu

  • Izboljšano zaznavanje

  • Boljši popis sredstev (večna bolečina)

  • Ožje privilegije

Tukaj nam umetna inteligenca zelo pomaga: povzemanje obdukcij, kartiranje vrzeli v odkrivanju, spreminjanje motenj v ponovljive izboljšave.


Skrita tveganja varnosti, ki jo poganja umetna inteligenca (ja, nekaj jih je) ⚠️

Če intenzivno uvajate umetno inteligenco, morate načrtovati morebitne težave:

  • Izumljena gotovost

    • Varnostne ekipe potrebujejo dokaze, ne pripovedovanja zgodb. Umetna inteligenca rada pripoveduje zgodbe. NIST AI RMF 1.0

  • Uhajanje podatkov

  • Prekomerno zanašanje

    • Ljudje se nehajo učiti osnov, ker kopilot "vedno ve" ... dokler jih ne ve več.

  • Premik modela

    • Okolja se spreminjajo. Vzorci napadov se spreminjajo. Zaznave tiho gnijejo. NIST AI RMF 1.0

  • Zloraba s strani nasprotnikov

To je kot če bi zgradili zelo pametno ključavnico in nato ključ pustili pod predpražnikom. Ključavnica ni edina težava.


Torej ... Ali lahko umetna inteligenca nadomesti kibernetsko varnost: jasen odgovor 🧼

Ali lahko umetna inteligenca nadomesti kibernetsko varnost?
Lahko nadomesti veliko ponavljajočega se dela znotraj kibernetske varnosti. Lahko pospeši odkrivanje, triažo, analizo in celo dele odzivanja. Vendar ne more v celoti nadomestiti discipline, ker kibernetska varnost ni ena sama naloga – gre za upravljanje, arhitekturo, človeško vedenje, vodenje incidentov in nenehno prilagajanje.

Če želite najbolj odkrito uokvirjanje (oprostite, nekoliko neposredno):

  • Umetna inteligenca nadomešča delo

  • Umetna inteligenca izboljšuje dobre ekipe

  • Umetna inteligenca razkriva slabe procese

  • Ljudje ostajajo odgovorni za tveganje in realnost

In ja, nekatere vloge se bodo spremenile. Naloge na začetni ravni se bodo najhitreje spreminjale. Pojavijo pa se tudi nove naloge: delovni tokovi, varni pred prompti, validacija modelov, inženiring varnostne avtomatizacije, inženiring zaznavanja z orodji, podprtimi z umetno inteligenco ... delo ne izgine, ampak mutira 🧬


Zaključne opombe in hiter povzetek 🧾✨

Če se odločate, kaj storiti z umetno inteligenco na področju varnosti, je tukaj praktičen nasvet:

  • Uporabite umetno inteligenco za skrajšanje časa – hitrejša triaža, hitrejši povzetki, hitrejša korelacija.

  • presojo naj bodo potrebni ljudje – kontekst, kompromisi, vodenje, odgovornost.

  • Predpostavimo, da napadalci uporabljajo tudi umetno inteligenco – načrtovanje za prevaro in manipulacijo. MITRE ATLAS za varen razvoj sistemov umetne inteligence (NSA/CISA/NCSC-UK)

  • Ne kupujte »čarovnije« – kupujte delovne procese, ki merljivo zmanjšajo tveganje in trud.

Torej, da, umetna inteligenca lahko nadomesti dele dela, in to pogosto stori na načine, ki se sprva zdijo subtilni. Zmagovalna poteza je, da umetno inteligenco spremenite v svoje vzvode, ne pa v nadomestilo.

In če vas skrbi za vašo kariero – osredotočite se na dele, s katerimi se umetna inteligenca spopada: sistemsko razmišljanje, vodenje incidentov, arhitektura in to, da ste oseba, ki lahko loči med »zanimivim opozorilom« in »kmalu bomo imeli zelo slab dan«. 😄🔐


Pogosta vprašanja

Ali lahko umetna inteligenca popolnoma nadomesti ekipe za kibernetsko varnost?

Umetna inteligenca lahko prevzame precejšen del dela na področju kibernetske varnosti, ne pa celotne discipline. Odlikuje se pri ponavljajočih se nalogah, kot so združevanje opozoril, odkrivanje anomalij in priprava povzetkov prvega prehoda. Ne nadomesti pa odgovornosti, poslovnega konteksta in presoje, ko so vložki visoki. V praksi se ekipe znajdejo v »nerodni srednji situaciji«, kjer umetna inteligenca zagotavlja obseg in hitrost, medtem ko ljudje ohranjajo odgovornost za posledične odločitve.

Kje umetna inteligenca že nadomešča vsakodnevno delo SOC?

V mnogih SOC-jih umetna inteligenca že prevzema časovno zahtevna dela, kot so triaža, odstranjevanje podvajanj in razvrščanje opozoril glede na verjeten vpliv. Prav tako lahko pospeši analizo dnevnikov z označevanjem vzorcev, ki odstopajo od osnovnega vedenja. Rezultat ni manj incidentov kot po čarovniji – gre za manj ur, porabljenih za prebijanje skozi hrup, tako da se lahko analitiki osredotočijo na preiskave, ki so pomembne.

Kako orodja umetne inteligence pomagajo pri upravljanju ranljivosti in določanju prioritet popravkov?

Umetna inteligenca pomaga preusmeriti upravljanje ranljivosti z »preveč CVE« na »kaj naj najprej popravimo«. Pogost pristop združuje signale verjetnosti izkoriščanja (kot je EPSS), znane sezname izkoriščanja (kot je katalog KEV CISA) in kontekst vašega okolja (internetna izpostavljenost in kritičnost sredstev). Če je to dobro izvedeno, to zmanjša ugibanje in podpira nameščanje popravkov, ne da bi to motilo poslovanje.

Kaj loči "dobro" umetno inteligenco v kibernetski varnosti od hrupne umetne inteligence?

Dobra umetna inteligenca v kibernetski varnosti zmanjšuje šum, namesto da bi ustvarjala samozavestno zvenečo zmedo. Ponuja praktično razlago – konkretne namige, kot so kaj se je spremenilo, kaj je bilo opaženo in zakaj je to pomembno – namesto dolgih, nejasnih pripovedi. Integrira se tudi z osrednjimi sistemi (IAM, končne točke, oblak, sistem za izdajanje zahtev) in podpira človeško preglasitev, tako da lahko analitiki po potrebi popravijo, prilagodijo ali prezrejo spremembe.

Katere dele kibernetske varnosti umetna inteligenca težko nadomesti?

Umetna inteligenca se najbolj spopada s sociotehničnim delom: nagnjenostjo k tveganju, vodenjem incidentov in usklajevanjem med ekipami. Med incidenti delo pogosto postane komunikacija, ravnanje z dokazi, pravni pomisleki in odločanje v negotovosti – področja, kjer vodenje prekaša ujemanje vzorcev. Umetna inteligenca lahko pomaga pri povzemanju dnevnikov ali pripravi časovnic, vendar ne more zanesljivo nadomestiti lastništva pod pritiskom.

Kako napadalci uporabljajo umetno inteligenco in ali to spremeni delo branilca?

Napadalci uporabljajo umetno inteligenco za širjenje lažnega predstavljanja, ustvarjanje prepričljivejšega socialnega inženiringa in hitrejše ponavljanje različic zlonamerne programske opreme. To spreminja igralne pogoje: branilci, ki uporabljajo umetno inteligenco, sčasoma postanejo manj neobvezni. Prav tako dodaja nova tveganja, saj lahko napadalci ciljajo na delovne procese umetne inteligence s takojšnjim vbrizgavanjem, poskusi zastrupitve ali izogibanjem nasprotnikom – kar pomeni, da tudi sistemi umetne inteligence potrebujejo varnostne kontrole, ne pa slepega zaupanja.

Katera so največja tveganja zanašanja na umetno inteligenco pri varnostnih odločitvah?

Veliko tveganje predstavlja izmišljena gotovost: umetna inteligenca se lahko zdi samozavestna, tudi če se moti, samozavest pa ni nadzor. Uhajanje podatkov je še ena pogosta past – varnostni pozivi lahko nenamerno vključujejo občutljive podrobnosti, dnevniki pa pogosto vsebujejo skrivnosti. Pretirano zanašanje lahko spodkoplje tudi temelje, medtem ko premik modela tiho poslabša zaznave, ko se okolja in vedenje napadalcev spreminjajo.

Kakšen je realističen operativni model za uporabo umetne inteligence v kibernetski varnosti?

Praktičen model izgleda takole: uporabite umetno inteligenco za zmanjšanje dela, obdržite ljudi za potrjevanje in odločitve ter avtomatizirajte le varne stvari. Umetna inteligenca je močna za povzetke obogatitve, pripravo zahtevkov, kontrolne sezname dokazov in primerjavo razlik »kaj se je spremenilo«. Avtomatizacija je najbolj primerna za dejanja z visoko stopnjo zaupanja, kot je blokiranje znanih slabih domen ali ponastavitev poverilnic po preverjeni ogrožatvi, z zaščitnimi ukrepi za preprečevanje prekoračitve.

Bo umetna inteligenca nadomestila začetniške vloge na področju kibernetske varnosti in katere veščine bodo postale bolj dragocene?

Najhitreje se bodo spreminjale količine opravil na začetni ravni, saj lahko umetna inteligenca absorbira ponavljajoče se delo triaže, povzemanja in klasifikacije. Pojavljajo pa se tudi nove naloge, kot so gradnja delovnih procesov, varnih za takojšnje odzive, potrjevanje izhodnih podatkov modelov in avtomatizacija varnostnega inženiringa. Odpornost na kariero običajno izhaja iz veščin, s katerimi se umetna inteligenca spopada: sistemsko razmišljanje, arhitektura, vodenje incidentov in prevajanje tehničnih signalov v poslovne odločitve.

Reference

  1. PRVI - EPSS (PRVI) - first.org

  2. Agencija za kibernetsko varnost in varnost infrastrukture (CISA) - Katalog znanih izkoriščenih ranljivosti - cisa.gov

  3. Nacionalni inštitut za standarde in tehnologijo (NIST) - SP 800-40 Rev. 4 (Upravljanje popravkov v podjetjih) - csrc.nist.gov

  4. Nacionalni inštitut za standarde in tehnologijo (NIST) - AI RMF 1.0 - nvlpubs.nist.gov

  5. OWASP - LLM01: Takojšnje vbrizgavanje - genai.owasp.org

  6. Vlada Združenega kraljestva - Kodeks ravnanja za kibernetsko varnost umetne inteligence - gov.uk

  7. Nacionalni inštitut za standarde in tehnologijo (NIST) - SP 800-61 (Vodnik za ravnanje z incidenti) - csrc.nist.gov

  8. Zvezni preiskovalni urad (FBI) - FBI opozarja na naraščajočo grožnjo kibernetskih kriminalcev, ki uporabljajo umetno inteligenco - fbi.gov

  9. Center za pritožbe FBI glede internetnega kriminala (IC3) - IC3 PSA o generativnih goljufijah/phishingu z umetno inteligenco - ic3.gov

  10. OpenAI - Poročila o obveščevalnih podatkih o grožnjah OpenAI (primeri zlonamerne uporabe) - openai.com

  11. Europol - Europolovo poročilo »ChatGPT« (pregled zlorab) - europol.europa.eu

  12. MITRE - ATLAS MITRE - mitre.org

  13. OWASP - OWASP Top 10 za prijave na magistrski študij prava (LLM) - owasp.org

  14. Nacionalna varnostna agencija (NSA) - Smernice za varovanje razvoja sistemov umetne inteligence (NSA/CISA/NCSC-UK in partnerji) - nsa.gov

  15. Microsoft LearnPregled programa Microsoft Sentinellearn.microsoft.com

  16. Splunk - Splunk Enterprise Security - splunk.com

  17. Google CloudGooglove varnostne operacijecloud.google.com

  18. CrowdStrike - platforma CrowdStrike Falcon - crowdstrike.com

  19. Microsoft LearnMicrosoft Defender za končne točkelearn.microsoft.com

  20. Omrežja Palo Alto - Cortex XSOAR - paloaltonetworks.com

  21. Wiz - platforma Wiz - wiz.io

  22. Snykplatforma Snyksnyk.io

Poiščite najnovejšo umetno inteligenco v uradni trgovini z umetno inteligenco

O nas

Nazaj na blog