Je šla umetna inteligenca predaleč?

Je šla umetna inteligenca predaleč?

Kratek odgovor: Umetna inteligenca je šla predaleč, ko se uporablja pri odločitvah z visokimi vložki, nadzoru ali prepričevanju brez trdnih omejitev, informirane privolitve in dejanske pravice do pritožbe. Ponovno prestopi mejo, ko globoki ponaredi in skalabilne prevare zaupanje dajejo občutek tveganja. Če ljudje ne morejo ugotoviti, da je umetna inteligenca igrala vlogo, ne morejo razumeti, zakaj je bila odločitev sprejeta tako, kot se je, ali se ne morejo odločiti, je že šla predaleč.

Ključne ugotovitve:

Meje: Določite, česa sistem ne more storiti, zlasti kadar je negotovost visoka.

Odgovornost: Zagotoviti, da lahko ljudje spremenijo rezultate brez kazni ali časovnih pritiskov.

Preglednost: Povejte ljudem, kdaj je vpletena umetna inteligenca in zakaj je sprejela takšne odločitve.

Izpodbojnost: Zagotovite hitre in izvedljive načine pritožbe ter jasne načine za odpravo slabih podatkov.

Odpornost proti zlorabam: Dodajte izvor, omejitve hitrosti in nadzor za preprečevanje prevar in zlorab.

"Je umetna inteligenca šla predaleč?"

Nenavadno je, da prečkanje meje ni vedno očitno. Včasih je glasno in kričeče, kot prevara z deepfakeom. ( FTC , FBI ) ​​Drugič je tiho – avtomatizirana odločitev, ki vam brez kakršne koli razlage premakne življenje na stran, in se sploh ne zavedate, da ste bili "preverjeni". ( UK ICO , GDPR člen 22 )

Torej ... Je umetna inteligenca šla predaleč? Ponekod da. Drugod pa ni šla dovolj daleč – ker se uporablja brez neprivlačnih, a bistvenih varnostnih ograj, zaradi katerih se orodja obnašajo kot orodja namesto kot rulete s prijaznim uporabniškim vmesnikom. 🎰🙂 ( NIST AI RMF 1.0 , Zakon EU o umetni inteligenci )

Članki, ki jih boste morda želeli prebrati po tem:

🔗 Zakaj je lahko umetna inteligenca škodljiva za družbo
Ključna družbena tveganja: pristranskost, delovna mesta, zasebnost in koncentracija moči.

🔗 Je umetna inteligenca škodljiva za okolje? Skriti vplivi
Kako usposabljanje, podatkovni centri in poraba energije povečujejo emisije.

🔗 Je umetna inteligenca dobra ali slaba? Prednosti in slabosti
Uravnotežen pregled koristi, tveganj in kompromisov v resničnem svetu.

🔗 Zakaj velja umetna inteligenca za slabo: temna stran
Raziskuje zlorabo, manipulacijo, varnostne grožnje in etične pomisleke.


Kaj ljudje mislijo, ko rečejo "Je šla umetna inteligenca predaleč?" 😬

Večina ljudi se ne sprašuje, ali je umetna inteligenca »čuteča« ali »prevzema oblast«. Kažejo na eno od teh:

  • Umetna inteligenca se uporablja tam, kjer se ne bi smela uporabljati. (Zlasti pri odločitvah z visokimi vložki.) ( Zakon EU o umetni inteligenci, Priloga III , GDPR, člen 22 )

  • Umetna inteligenca se uporablja brez privolitve. (Vaši podatki, vaš glas, vaš obraz ... presenečenje.) ( UK ICO , GDPR člen 5 )

  • Umetna inteligenca postaja preveč dobra v manipuliranju pozornosti. (Viri + personalizacija + avtomatizacija = lepljivo.) ( Načela umetne inteligence OECD )

  • Umetna inteligenca daje občutek, da je resnica neobvezna. (Globoki ponaredki, lažne ocene, sintetični »strokovnjaki«.) ( Evropska komisija , FTC , C2PA )

  • Umetna inteligenca koncentrira moč. (Nekaj ​​sistemov oblikuje, kaj vsi vidijo in zmorejo.) ( UK CMA )

To je bistvo vprašanja »Je umetna inteligenca šla predaleč?« . Ne gre za en sam trenutek. Gre za kup spodbud, bližnjic in razmišljanja »popravili bomo kasneje« – kar, bodimo odkriti, ponavadi pomeni »popravili bomo, ko se bo kdo poškodoval«. 😑

Je šla umetna inteligenca predaleč? (infografika)

Ne tako skrivna resnica: umetna inteligenca je multiplikator, ne moralni akter 🔧✨

Umetna inteligenca se ne zbudi in se ne odloči, da bo škodljiva. Ljudje in organizacije jo ciljajo. Vendar pa pomnoži vse, kar ji daste:

  • Koristen namen postane izjemno koristen (prevod, dostopnost, povzemanje, odkrivanje medicinskih vzorcev).

  • Površna namera postane izjemno površna (pristranskost v velikem obsegu, avtomatizacija napak).

  • Slab namen postane izjemno slab (goljufija, nadlegovanje, propaganda, lažno predstavljanje).

To je kot da bi malčku dal megafon. Včasih malček poje ... včasih malček kriči naravnost v tvojo dušo. Ni popolna metafora - malo neumno - ampak bistvo je zadeto 😅📢.


Kaj naredi dobro različico umetne inteligence v vsakodnevnih okoljih? ✅🤝

»Dobra različica« umetne inteligence ni definirana s tem, kako pametna je. Definirana je s tem, kako dobro se obnaša pod pritiskom, negotovostjo in skušnjavo (in ljudje so zelo v skušnjavi poceni avtomatizacije). ( NIST AI RMF 1.0 , OECD )

Tukaj je tisto, na kar sem pozoren, ko nekdo trdi, da je uporaba umetne inteligence odgovorna za to:

1) Jasne meje

  • Kaj je sistemu dovoljeno storiti?

  • Kaj je izrecno prepovedano početi?

  • Kaj se zgodi, ko ni gotovo?

2) Človeška odgovornost, ki je resnična, ne dekorativna

Človeški "pregled" rezultatov je pomemben le, če:

  • razumejo, kaj pregledujejo, in

  • lahko ga preglasijo, ne da bi bili kaznovani za upočasnitev stvari.

3) Razložljivost na pravi ravni

Ne potrebujejo vsi matematike. Ljudje potrebujejo:

  • glavne razloge za odločitev,

  • kateri podatki so bili uporabljeni,

  • kako se pritožiti, popraviti ali odjaviti. ( UK ICO )

4) Merljiva zmogljivost – vključno z načini odpovedi

Ne samo "natančnost", ampak:

  • pri kom ne uspe,

  • kako pogosto tiho odpove,

  • kaj se zgodi, ko se svet spremeni. ( NIST AI RMF 1.0 )

5) Zasebnost in soglasje, ki nista »skrita v nastavitvah«

Če privolitev zahteva iskanje zaklada po menijih ... to ni privolitev. To je vrzel z dodatnimi koraki 😐🧾. ( GDPR, člen 5 , UK ICO )


Primerjalna tabela: praktični načini, kako preprečiti, da bi umetna inteligenca šla predaleč 🧰📊

Spodaj so navedene »najboljše možnosti« v smislu, da gre za običajne varovalne ograje ali operativna orodja, ki spreminjajo rezultate (ne le vibracije).

Orodje / možnost Občinstvo Cena Zakaj deluje
Pregled delovanja človeka v zanki ( Zakon EU o umetni inteligenci ) Ekipe, ki sprejemajo tvegane odločitve ££ (časovni stroški) Upočasni slabo avtomatizacijo. Prav tako lahko ljudje opazijo nenavadne robne primere, včasih ..
Postopek pritožbe zoper odločitev ( člen 22 GDPR ) Uporabniki, na katere vplivajo odločitve umetne inteligence Prostovoljno Dodaja dolžni postopek. Ljudje lahko popravijo napačne podatke – sliši se preprosto, ker je preprosto
Dnevniki revizije + sledljivost ( NIST SP 800-53 ) Skladnost, operacije, varnost £-££ Omogoča vam, da po neuspehu odgovorite na vprašanje "kaj se je zgodilo?", namesto da skomignete z rameni
Vrednotenje modela + testiranje pristranskosti ( NIST AI RMF 1.0 ) Ekipe za izdelke in tveganja zelo se razlikuje Zgodaj zazna predvidljivo škodo. Ni popolno, ampak boljše kot ugibanje
Testiranje rdeče ekipe ( profil NIST GenAI ) Varnost + varnostniki £££ Simulira zlorabo, preden jo storijo pravi napadalci. Neprijetno, ampak se splača 😬
Zmanjševanje podatkov ( ICO v Združenem kraljestvu ) Vsi, odkrito povedano £ Manj podatkov = manj nereda. Prav tako manj vdorov, manj nerodnih pogovorov
Signali izvora vsebine ( C2PA ) Platforme, mediji, uporabniki £-££ Pomaga preveriti, ali je to naredil človek – ni zanesljivo, vendar zmanjšuje kaos
Omejitve hitrosti + nadzor dostopa ( OWASP ) Ponudniki umetne inteligence + podjetja £ Takoj prepreči zlorabo, da bi se razširila. Kot ovira za zlonamerne igralce

Ja, miza je malo neravna. Takšno pač je. 🙂


Umetna inteligenca pri odločitvah z visokimi vložki: kdaj gre predaleč 🏥🏦⚖️

Tu se stvari hitro zaostrijo.

Umetna inteligenca v zdravstvu , financah , stanovanjskem sektorju , zaposlovanju , izobraževanju , priseljevanju , kazenskem pravosodju – to so sistemi, kjer: ( Zakon EU o umetni inteligenci, Priloga III , FDA )

  • napaka lahko nekoga stane denarja, svobode, dostojanstva ali varnosti,

  • in prizadeta oseba ima pogosto omejeno moč za boj proti.

Veliko tveganje ni v tem, da »umetna inteligenca dela napake«. Veliko tveganje je, da napake umetne inteligence postanejo politika . ( NIST AI RMF 1.0 )

Kako izgleda "predaleč" tukaj

  • Avtomatizirane odločitve brez pojasnila: »računalnik pravi ne.« ( UK ICO )

  • "Ocene tveganja" so bile obravnavane kot dejstva in ne kot ugibanja.

  • Ljudje, ki ne morejo preglasiti rezultatov, ker si vodstvo želi hitrosti.

  • Podatki, ki so neurejeni, pristranski, zastareli ali preprosto popolnoma napačni.

Kaj bi moralo biti nepogajalno

  • Pravica do pritožbe (hitra, razumljiva, ne labirint). ( GDPR, člen 22 , UK ICO )

  • Pravica vedeti , da je bila vpletena umetna inteligenca. ( Evropska komisija )

  • Človeški pregled za posledične rezultate. ( NIST AI RMF 1.0 )

  • Nadzor kakovosti podatkov – ker je še vedno boleče res, da se stvari noter, stvari ven.

Če poskušate potegniti jasno črto, je tukaj ena:
Če lahko sistem umetne inteligence bistveno spremeni nekomu življenje, potrebuje enako resnost, kot jo pričakujemo od drugih oblik oblasti. Brez "beta testiranja" na ljudeh, ki se niso prijavili. 🚫


Globoki ponaredi, prevare in počasna smrt slogana "Zaupam svojim očem" 👀🧨

To je tisti del, zaradi katerega se vsakdanje življenje zdi ... spolzko.

Ko lahko umetna inteligenca ustvari:

  • glasovno sporočilo, ki zveni kot vaš družinski član ( FTC , FBI )

  • videoposnetek javne osebnosti, ki nekaj »govori«,

  • poplava lažnih ocen, ki so videti dovolj pristne ( FTC )

  • lažni profil na LinkedInu z lažno delovno zgodovino in lažnimi prijatelji ..

... ne omogoča le prevar. Slabi družbeno vezivo, ki omogoča usklajevanje med neznanci. In družba deluje na usklajevanju med neznanci. 😵💫

»Predaleč« ni samo lažna vsebina

To je asimetrija :

  • Poceni je ustvarjati laži.

  • Preverjanje resnice je drago in počasno.

  • In večina ljudi je zaposlenih, utrujenih in brskajo po spletu.

Kaj pomaga (malo)

  • Označevalci izvora za medije ( C2PA )

  • Trenje za viralnost - upočasnitev takojšnjega deljenja v množici.

  • Boljše preverjanje identitete, kjer je to pomembno (finance, vladne storitve).

  • Osnovne navade »preverjanja izven pasu« za posameznike (povratni klic, uporaba kodne besede, potrditev prek drugega kanala). ( FTC )

Ni glamurozno. Ampak tudi varnostni pasovi niso, in nanje sem osebno precej navezan. 🚗


Nadzorni lezenje: ko umetna inteligenca vse tiho spremeni v senzor 📷🫥

Ta ne eksplodira kot deepfake. Preprosto se širi.

Umetna inteligenca olajša:

In tudi če je netočna, je lahko še vedno škodljiva, saj lahko upraviči intervencijo. Napačna napoved lahko še vedno sproži resnične posledice.

Neprijeten del

Nadzor, ki ga poganja umetna inteligenca, je pogosto zavit v zgodbo o varnosti:

  • "To je za preprečevanje goljufij."

  • "To je zaradi varnosti."

  • "To je za uporabniško izkušnjo."

Včasih je to res. Včasih je to tudi priročen izgovor za gradnjo sistemov, ki jih je kasneje zelo težko razstaviti. Na primer namestitev enosmernih vrat v lastni hiši, ker se je takrat zdelo učinkovito. Spet, ni popolna metafora - kar smešno - ampak čutiš. 🚪😅

Kako izgleda "dobro" tukaj

  • Stroge omejitve glede hrambe in deljenja.

  • Počisti zavrnitve.

  • Ozki primeri uporabe.

  • Neodvisen nadzor.

  • Brez "zaznavanja čustev" za kaznovanje ali varovanje dostopa. Prosim. 🙃 ( Zakon EU o umetni inteligenci )


Delo, ustvarjalnost in problem tihega odvajanja od znanj in spretnosti 🧑💻🎨

Tu razprava postane osebna, ker se dotika identitete.

Umetna inteligenca lahko ljudi naredi produktivnejše. Prav tako jim lahko da občutek, da so zamenljivi. Oboje je lahko resnično, hkrati, v istem tednu. ( OECD , WEF )

Kjer je resnično koristno

  • Pisanje rutinskega besedila, da se ljudje lahko osredotočijo na razmišljanje.

  • Pomoč pri kodiranju ponavljajočih se vzorcev.

  • Orodja za dostopnost (podnapisi, povzemanje, prevajanje).

  • Brainstorming, ko se zataknete.

Kjer gre predaleč

  • Zamenjava vlog brez prehodnih načrtov.

  • Uporaba umetne inteligence za zmanjšanje proizvodnje ob hkratnem zniževanju plač.

  • Obravnavanje ustvarjalnega dela kot neskončnih brezplačnih podatkov za usposabljanje, nato pa skomignjanje z rameni. ( Urad za avtorske pravice ZDA , GOV.UK Združenega kraljestva )

  • Izginjanje nižjih delovnih mest – kar se sliši učinkovito, dokler se ne zaveš, da si pravkar požgal lestev, po kateri se morajo povzpeti bodoči strokovnjaki.

Odpravljanje znanja je subtilno. Ne opaziš ga iz dneva v dan. Potem pa nekega dne ugotoviš, da se nihče v ekipi ne spomni, kako stvar deluje brez asistenta. In če se asistent moti, se vsi skupaj preprosto motite ... kar je prava nočna mora. 😬


Koncentracija moči: kdo lahko določa privzete vrednosti? 🏢⚡

Tudi če je umetna inteligenca "nevtralna" (ni), lahko kdorkoli jo nadzoruje oblikuje:

  • katere informacije so lahko dostopne,

  • kaj se promovira ali zakoplje,

  • kateri jezik je dovoljen,

  • katera vedenja se spodbujajo.

In ker so sistemi umetne inteligence lahko dragi za izgradnjo in delovanje, se moč ponavadi koncentrira. To ni zarota. To je ekonomija s tehnološko kapuco. ( UK CMA )

Trenutek "predaleč" tukaj

Ko neizpolnjevanje obveznosti postane neviden zakon:

  • Ne veš, kaj se filtrira,

  • ne moreš preveriti logike,

  • in realno se ne morete odpovedati, ne da bi izgubili dostop do dela, skupnosti ali osnovnih storitev.

Zdrav ekosistem potrebuje konkurenco, preglednost in resnično uporabniško izbiro. Sicer si v bistvu najemate realnost. 😵♂️


Praktični kontrolni seznam: kako ugotoviti, ali umetna inteligenca v vašem svetu gre predaleč 🧾🔍

Tukaj je seznam za preverjanje, ki ga uporabljam (in ja, je nepopoln):

Če ste posameznik

  • Vem, kdaj komuniciram z umetno inteligenco. ( Evropska komisija )

  • Ta sistem me sili k pretiravanju z delitvijo.

  • Če je rezultat napačen, bi bil v redu, če bi ga obravnaval na verodostojen način.

  • Če bi me s tem prevarali, bi mi platforma pomagala ... ali pa bi skomignila z rameni.

Če ste podjetje ali ekipa

  • Umetno inteligenco uporabljamo, ker je dragocena ali ker je trendovska in je vodstvo nemirno.

  • Vemo, katerih podatkov se sistem dotika.

  • Prizadeti uporabnik se lahko pritoži na izid. ( UK ICO )

  • Ljudje so pooblaščeni, da preglasijo model.

  • Imamo načrte za odzivanje na incidente v primeru napak umetne inteligence.

  • Spremljamo morebitne premike, zlorabe in nenavadne robne primere.

Če si na kup teh vprašanj odgovoril z "ne", to ne pomeni, da si zloben. Pomeni, da si v normalnem človeškem stanju "pošiljali smo ga in upali". Ampak upanje žal ni strategija. 😅


Zaključne opombe 🧠✅

Torej ... Je umetna inteligenca šla predaleč?
Šla je predaleč, kjer se uporablja brez odgovornosti , zlasti pri odločitvah z visokimi vložki, množičnem prepričevanju in nadzoru. Šla je tudi predaleč, kjer spodkopava zaupanje – kajti ko se zaupanje enkrat prekine, postane vse dražje in bolj sovražno, družbeno gledano. ( NIST AI RMF 1.0 , Zakon EU o umetni inteligenci )

Vendar umetna inteligenca ni sama po sebi obsojena na propad ali sama po sebi popolna. Je močan multiplikator. Vprašanje je, ali gradimo varovalne ograje tako agresivno kot gradimo zmogljivosti.

Hiter povzetek:

  • Umetna inteligenca je kot orodje v redu.

  • Nevarno je kot neodgovorna avtoriteta.

  • Če se nekdo ne more pritožiti, razumeti ali se ne more odjaviti – se tu začne »predaleč«. 🚦 ( GDPR, člen 22 , UK ICO )


Pogosta vprašanja

Je umetna inteligenca v vsakdanjem življenju šla predaleč?

Na mnogih mestih je umetna inteligenca šla predaleč, ker je začela drseti v odločitve in interakcije brez jasnih meja ali odgovornosti. Težava je le redko v tem, da »umetna inteligenca obstaja«; gre za to, da se umetna inteligenca tiho vpleta v zaposlovanje, zdravstvo, storitve za stranke in vire informacij s slabim nadzorom. Ko ljudje ne morejo ugotoviti, da gre za umetno inteligenco, ne morejo izpodbijati rezultatov ali se ne morejo odločiti za sodelovanje, se neha počutiti kot orodje in začne se počutiti kot sistem.

Kako izgleda »pretiravanje z umetno inteligenco« pri odločitvah z visokimi vložki?

Zdi se, da se umetna inteligenca uporablja v zdravstvu, financah, stanovanjski gradnji, zaposlovanju, izobraževanju, priseljevanju ali kazenskem pravosodju brez močnih varovalnih ograj. Osrednji problem ni v tem, da modeli delajo napake, temveč v tem, da se te napake utrdijo v politiki in jih je težko izpodbijati. Odločitve »računalnik reče ne« s slabimi razlagami in brez smiselnih pritožb so tiste, kjer se škoda hitro poveča.

Kako lahko ugotovim, ali me zadeva avtomatizirana odločitev, in kaj lahko storim?

Pogost znak je nenaden izid, ki ga ne morete pojasniti: zavrnitev, omejitev ali občutek »ocene tveganja« brez jasnega razloga. Mnogi sistemi bi morali razkriti, kdaj je umetna inteligenca igrala pomembno vlogo, vi pa bi morali imeti možnost zahtevati glavne razloge za odločitev in korake za pritožbo. V praksi zahtevajte človeški pregled, popravite morebitne napačne podatke in se zavzemajte za preprosto pot do zavrnitve.

Je umetna inteligenca šla predaleč z zasebnostjo, soglasjem in uporabo podatkov?

Pogosto se to zgodi, ko privolitev postane lov na zaklad in se zbiranje podatkov razširi »za vsak slučaj«. Bistvo članka je, da zasebnost in privolitev nimata velike teže, če sta zakopana v okoljih ali vsiljena z nejasnimi izrazi. Bolj zdrav pristop je zmanjšanje podatkov: zbirajte manj, hranite manj in poskrbite, da so odločitve nedvoumne, da ljudje kasneje ne bodo presenečeni.

Kako ponaredki in prevare z umetno inteligenco spreminjajo pomen »zaupanja« na spletu?

Resnico dajejo vtis neobveznosti, saj znižujejo stroške ustvarjanja prepričljivih lažnih glasov, videoposnetkov, ocen in identitet. Problem je asimetrija: ustvarjanje laži je poceni, medtem ko je preverjanje resnice počasno in naporno. Praktična obramba vključuje signale o izvoru za medije, upočasnitev deljenja virusov, močnejša preverjanja identitete, kjer je to pomembno, in navade »preverjanja zunaj pasu«, kot je povratni klic ali uporaba skupne kodne besede.

Katere so najbolj praktične varovalne ograje, ki preprečujejo, da bi umetna inteligenca šla predaleč?

Varnostne ograje, ki spreminjajo rezultate, vključujejo pristen pregled s človeško prisotnostjo za klice z visokimi vložki, jasne postopke pritožb in dnevnike revizije, ki lahko po napakah odgovorijo na vprašanje »kaj se je zgodilo?«. Vrednotenje modelov in testiranje pristranskosti lahko prej odkrijeta predvidljivo škodo, medtem ko testiranje z rdečo ekipo simulira zlorabo, preden jo napadalci. Omejitve hitrosti in nadzor dostopa pomagajo preprečiti takojšnje povečanje zlorabe, minimizacija podatkov pa zmanjšuje tveganje na vseh področjih.

Kdaj nadzor, ki ga poganja umetna inteligenca, prestopi mejo?

Meja se preseže, ko se vse privzeto spremeni v senzor: prepoznavanje obrazov v množicah, sledenje vzorcem gibanja ali samozavestno »zaznavanje čustev«, ki se uporablja za kaznovanje ali varovanje dostopa. Tudi netočni sistemi lahko povzročijo resno škodo, če upravičujejo intervencije ali zavrnitev storitev. Dobra praksa se kaže v ozkih primerih uporabe, strogih omejitvah hrambe, smiselnih zavrnitvah, neodvisnem nadzoru in odločnem »ne« majavim presojam, ki temeljijo na čustvih.

Ali umetna inteligenca ljudi dela bolj produktivne – ali pa tiho odvzema delovne spretnosti?

Oboje je lahko hkrati res, in prav v tej napetosti je bistvo. Umetna inteligenca lahko pomaga pri rutinskem pisanju osnutkov, ponavljajočih se vzorcih kodiranja in dostopnosti, kar ljudem omogoča, da se osredotočijo na razmišljanje na višji ravni. Pretirava, ko nadomešča vloge brez načrtov prehoda, znižuje plače, obravnava ustvarjalno delo kot brezplačne podatke za usposabljanje ali odpravlja nižje vloge, ki gradijo prihodnje strokovno znanje. Odpravljanje strokovnih znanj in spretnosti ostane subtilno, dokler ekipe ne morejo več delovati brez asistenta.

Reference

  1. Nacionalni inštitut za standarde in tehnologijo (NIST) - Okvir za upravljanje tveganj umetne inteligence (AI RMF 1.0) - nist.gov

  2. Evropska unija - Zakon EU o umetni inteligenci (Uredba (EU) 2024/1689) - Uradni list (angleščina) - europa.eu

  3. Evropska komisija - Regulativni okvir za umetno inteligenco (stran s politiko Zakona EU o umetni inteligenci) - europa.eu

  4. Služba za pomoč uporabnikom v zvezi z zakonom EU o umetni inteligenciPriloga III (Visoko tvegani sistemi umetne inteligence)europa.eu

  5. Evropska unija - Pravila za zaupanja vredno umetno inteligenco v EU (povzetek zakona EU o umetni inteligenci) - europa.eu

  6. Urad informacijskega pooblaščenca Združenega kraljestva (ICO) - Kaj je avtomatizirano individualno odločanje in profiliranje? - ico.org.uk

  7. Urad informacijskega pooblaščenca Združenega kraljestva (ICO) - Kaj pravi britanska uredba GDPR o avtomatiziranem odločanju in profiliranju? - ico.org.uk

  8. Urad informacijskega pooblaščenca Združenega kraljestva (ICO) - Avtomatizirano odločanje in profiliranje (smerniško središče) - ico.org.uk

  9. Urad informacijskega pooblaščenca Združenega kraljestva (ICO) - Zmanjšanje podatkov (smernice o načelih GDPR v Združenem kraljestvu) - ico.org.uk

  10. GDPR-info.eu - 22. člen GDPR - gdpr-info.eu

  11. GDPR-info.eu - 5. člen GDPR - gdpr-info.eu

  12. Ameriška zvezna komisija za trgovino (FTC) - Goljufi uporabljajo umetno inteligenco za izboljšanje svojih shem za nujne primere za družine - ftc.gov

  13. Ameriška zvezna komisija za trgovino (FTC) - Goljufi uporabljajo lažne nujne primere, da vam ukradejo denar - ftc.gov

  14. Ameriška zvezna komisija za trgovino (FTC) - Končno pravilo o prepovedi lažnih ocen in pričevanj (sporočilo za javnost) - ftc.gov

  15. Zvezni preiskovalni urad (FBI) - FBI opozarja na naraščajočo grožnjo kibernetskih kriminalcev, ki uporabljajo umetno inteligenco - fbi.gov

  16. Organizacija za gospodarsko sodelovanje in razvoj (OECD) - Načela OECD za umetno inteligenco - oecd.ai

  17. OECD - Priporočilo Sveta o umetni inteligenci (OECD/LEGAL/0449) - oecd.org

  18. Evropska komisija - Smernice in kodeks ravnanja za pregledne sisteme umetne inteligence (pogosto zastavljena vprašanja) - europa.eu

  19. Koalicija za izvor in avtentičnost vsebine (C2PA) - Specifikacije v2.3 - c2pa.org

  20. Britanski organ za konkurenco in trge (CMA) - Modeli temeljev umetne inteligence: začetno poročilo - gov.uk

  21. Ameriška uprava za hrano in zdravila (FDA) - Medicinski pripomočki z umetno inteligenco - fda.gov

  22. NIST - Varnostni in zasebnostni nadzor za informacijske sisteme in organizacije (SP 800-53 Rev. 5) - nist.gov

  23. NIST - Generativni profil umetne inteligence (NIST.AI.600-1, ipd) - nist.gov

  24. Projekt odprte svetovne varnosti aplikacij (OWASP) - neomejena poraba virov (API Security Top 10, 2023) - owasp.org

  25. NIST - Demografski podatki o testiranju ponudnikov prepoznavanja obrazov (FRVT) - nist.gov

  26. Barrett in drugi (2019) - Članek (PMC) - nih.gov

  27. OECD - Uporaba umetne inteligence na delovnem mestu (PDF) - oecd.org

  28. Svetovni gospodarski forum (WEF) - Poročilo o prihodnosti delovnih mest 2025 - Povzetek - weforum.org

  29. Urad za avtorske pravice ZDA - Avtorske pravice in umetna inteligenca, 3. del: Poročilo o usposabljanju za generativno umetno inteligenco (različica pred objavo) (PDF) - copyright.gov

  30. Vlada Združenega kraljestva (GOV.UK) - Avtorske pravice in umetna inteligenca (posvetovanje) - gov.uk

Poiščite najnovejšo umetno inteligenco v uradni trgovini z umetno inteligenco

O nas

Nazaj na blog