🏛️ Trump ameriškim agencijam naroči, naj zavržejo umetno inteligenco podjetja Anthropic, saj Pentagon zagonsko podjetje označuje za tveganje za dobavo ↗
Ameriški predsednik je zveznim agencijam naročil, naj prenehajo uporabljati tehnologijo Anthropic, z obveznim obdobjem postopne opustitve, ki razpad dobaviteljev spremeni v pravi politični trenutek. Pentagon je Anthropic označil za »tveganje dobavne verige« – presenetljiva oznaka, ki jo pripisujejo velikemu ameriškemu laboratoriju za umetno inteligenco. ( Reuters )
Anthropic je nakazal, da se bo tej potezi uprl, epizoda pa osvetljuje večji boj: varnostna pravila podjetij v primerjavi z vladnimi zahtevami po največji prilagodljivosti. Če ste poslovni kupec, ki opazuje dogajanje od strani, je osrednje vprašanje preprosto – ko je stranka država, pogoji države običajno določajo vreme. ( Reuters )
⚖️ Pentagon je antropogeno razglasil za grožnjo nacionalni varnosti ↗
Ta različica doda več teksture pristopu v slogu črnega seznama in kaj to pomeni za izvajalce – ne le za agencije – ki se dotikajo zveznega ekosistema. Gre za vrsto pravila, ki se hitro širi navzven, kot črnilo v vodi, le da je črnilo dokumentacija o javnem naročanju. ( The Washington Post )
Prav tako prihaja do neposrednega spora glede tega, ali lahko politike uporabe ponudnika modela omejujejo vojaške aplikacije, zlasti v občutljivih primerih uporabe. Odziv industrije se je zdel napet; precedens je tisti, ki vznemirja ljudi, ne le eno podjetje, ki je bilo izbrano. ( The Washington Post )
☁️ OpenAI in Amazon napovedujeta strateško partnerstvo ↗
OpenAI je napovedal strateško partnerstvo z Amazonom, ki platformo Frontier podjetja OpenAI prinaša na AWS, s čimer se širi področje, kjer lahko stranke upravljajo sisteme na ravni OpenAI. Če ste spremljali, »kdo kaj gosti« v umetni inteligenci, se to sliši kot premik moči, ki ohranja nizek glas, medtem ko premika veliko pohištva. ( OpenAI )
Prav tako se pojavlja kot odgovor na pritisk povpraševanja – več infrastrukturnih možnosti, več distribucijskih poti, manj enopasovnih avtocest. Ali to olajša uvajanje ali pa preprosto vsem daje več gumbov za napačno konfiguracijo, bomo še videli. ( OpenAI )
🧠 OpenAI uvaja umetno inteligenco s spremljanjem stanja na AWS, kar signalizira premik moči na ravnini upravljanja ↗
Mnenje Computerworlda: »Stateful AI« na AWS ni le gostovanje – gre za to, kje se nahaja nadzorna ravnina in kdo lahko orkestrira identiteto, pomnilnik in potek dela med sejami. Stateful sistemi se lahko zdijo veliko bolj »podobni agentom«, tako za boljše kot za »o, kaj je pravkar naredilo«. ( Computerworld )
Podtekst je tekmovalna geometrija: oblaki želijo imeti platformo, laboratoriji za umetno inteligenco želijo imeti površino izdelka, stranke pa želijo, da se ta ne pokvari ob 2. uri zjutraj. Vsi si želijo volan – tudi če se pretvarjajo, da ga ne. ( Computerworld )
🔐 'Tiha' sprememba ključa Google API je razkrila podatke o umetni inteligenci Gemini - CSO ↗
Okoli ključev Google Cloud API in Geminija kroži varnostno opozorilo – poročajo, da lahko spremembe v načinu delovanja (ali obravnave) ključev spremenijo predpostavke o »varnosti vdelave« v veliko, naraščajoče tveganje. Zaskrbljujoče je, kako enostavno lahko vse naredite »kot ste vedno« in se še vedno znajdete zunaj varovalnih ograj. ( CSO Online )
Raziskovalci so opozorili na razširjeno razkritje ključev v organizacijah, kar ni toliko posamezna napaka, temveč bolj opomnik, da integracije umetne inteligence širijo radij delovanja dolgočasnega upravljanja starih skrivnosti. To so neprivlačne stvari, ki najpogosteje grizejo. ( SC Media )
📱🎶 Gemini Drops: Nove posodobitve aplikacije Gemini, februar ... ↗
Googlova posodobitev aplikacije Gemini predstavlja izboljšave Gemini 3.1 in način sklepanja »Deep Think«, namenjen težkim znanstvenim in inženirskim problemom, poleg tega pa še omejevanje na ravni naročnikov. Pametnejši način, višja ograja, klasična kombinacija. ( blog.google )
Prav tako: Lyria 3 je bila omenjena kot glasbeni model, ki lahko v beta različici ustvarja kratke skladbe iz besedila ali slik. Očarljivo je, da isti ekosistem, ki ponuja hardcore razmišljanje, ponuja tudi hitre, unikatne zvočne posnetke - dve prestavi, en menjalnik. ( blog.google )
Pogosta vprašanja
Kaj spremeni dejstvo, da ameriške zvezne agencije prenehajo uporabljati antropno tehnologijo?
Izbiro dobavitelja pretvarja v pravilo javnega naročanja z določenim časovnim okvirom za postopno opustitev namesto ad hoc odločitev posameznih ekip. Pentagonov okvir »tveganja dobavne verige« povečuje tveganja in kaže, da je upravičenost morda bolj odvisna od politike kot od zaslug izdelka. Za kupce poudarja, kako lahko zahteve javnega sektorja prevladajo nad želenim operativnim modelom ponudnika.
Kako bi lahko oznaka Pentagona za "tveganje v dobavni verigi" vplivala na izvajalce in dobavitelje v nižji fazi proizvodnje?
Poročilo kaže, da vpliv ni omejen le na agencije; lahko se prenese tudi na izvajalce, ki se prepletajo z zveznim ekosistemom. Tudi če modela nikoli ne kupite neposredno, lahko vaš sklad podeduje omejitve prek glavnih pogodb, klavzul o pretoku in preverjanj skladnosti. Zato vprašanje »kdo kaj uporablja« hitro postane problem papirologije in ne le razprava o arhitekturi.
Kaj naj storijo poslovni kupci, če se osrednji ponudnik umetne inteligence znajde v zvezni prepovedi javnih naročil za umetno inteligenco?
Začnite z mapiranjem, kje se ponudnik pojavi: neposredna uporaba API-ja, vdelane funkcije in odvisnosti od ponudnikov. Zgradite načrt zamenjave, ki zajema končne točke modela, predloge pozivov, izhodišča za ocenjevanje in odobritve upravljanja, tako da postopno opuščanje ne postane izpad. V mnogih cevovodih nastavitve z dvema ponudnikoma in prenosljive abstrakcije zmanjšajo radij eksplozije, ko se politika čez noč spremeni.
Ali so lahko pravilniki uporabe ponudnika umetne inteligence v nasprotju z vladnimi ali vojaškimi zahtevami?
Da – ta situacija poudarja neposreden konflikt glede tega, ali lahko pravila uporabe ponudnika modela omejujejo občutljive aplikacije. Vlade pogosto zahtevajo maksimalno prilagodljivost, medtem ko laboratoriji lahko uvedejo strožje omejitve za določene primere uporabe. Če služite strankam javnega sektorja, načrtujte pogodbene pogoje, ki dajejo prednost zahtevam poslanstva in lahko zahtevajo različne kontrole ali zagotovila.
Kaj partnerstvo OpenAI–Amazon pomeni za to, kje lahko uporabljate sisteme OpenAI?
Razširja področja, kjer lahko stranke upravljajo in upravljajo sisteme razreda OpenAI, tako da platformo Frontier podjetja OpenAI prenese na AWS. Praktično to lahko pomeni več možnosti infrastrukture in manj enosmernih poti uvajanja. Lahko tudi preusmeri odgovornosti: več gumbov za nastavitev identitete, dostopa in delovanja, kar lahko podpira odpornost, hkrati pa povečuje tveganje konfiguracije.
Kaj je »stateful AI« na AWS in zakaj je pomembna nadzorna ravnina?
»Stalna« umetna inteligenca pomeni sisteme, ki lahko prenašajo kontekst med sejami, kar se v resničnih delovnih procesih lahko zdi bolj podobno agentom. Vprašanje nadzorne ravnine se osredotoča na to, kdo orkestrira identiteto, pomnilnik in delovni proces seje: vaš oblak, laboratorij umetne inteligence ali vaša lastna platformska plast. To je pomembno za upravljanje, odpravljanje napak in odzivanje na incidente, ko gre ob 2. uri zjutraj kaj narobe.
Kako lahko »tiha« sprememba ključa Google API povzroči tveganje izpostavljenosti podatkov Gemini?
Če se vedenje ključev ali pričakovanja glede ravnanja s ključi spremenijo, lahko prakse, ki so se nekoč zdele varne – kot je vdelava ključev – postanejo nevarne, ne da bi ekipe tega opazile. Poročila to opredeljujejo kot problem upravljanja skrivnosti, ki ga še povečujejo integracije umetne inteligence, ne pa kot eno samo osamljeno napako. Pogost pristop je obravnavanje vseh ključev kot visoko tveganih, njihova pogosta rotacija in hramba na strani strežnika za strogim nadzorom dostopa.
Kaj je novega v posodobitvi aplikacije Gemini februarja 2026 in kdo jo dobi?
Google izpostavlja izboljšave Gemini 3.1 in način razmišljanja »Deep Think«, namenjen težjim znanstvenim in inženirskim problemom. Posodobitev poudarja tudi dostop do naročniških ravni, kar pomeni, da se zmogljivosti in dostop lahko razlikujejo glede na naročniški paket. Ločeno je Lyria 3 omenjena kot glasbeni model, ki lahko v beta različici ustvarja kratke skladbe iz besedila ali slik, kar širi ustvarjalna orodja aplikacije.
Pogosta vprašanja
Kaj spremeni dejstvo, da ameriške zvezne agencije prenehajo uporabljati antropno tehnologijo?
Izbiro dobavitelja pretvarja v pravilo javnega naročanja z določenim časovnim okvirom za postopno opustitev namesto ad hoc odločitev posameznih ekip. Pentagonov okvir »tveganja dobavne verige« povečuje tveganja in kaže, da je upravičenost morda bolj odvisna od politike kot od zaslug izdelka. Za kupce poudarja, kako lahko zahteve javnega sektorja prevladajo nad želenim operativnim modelom ponudnika.
Kako bi lahko oznaka Pentagona za "tveganje v dobavni verigi" vplivala na izvajalce in dobavitelje v nižji fazi proizvodnje?
Poročilo kaže, da vpliv ni omejen le na agencije; lahko se prenese tudi na izvajalce, ki se prepletajo z zveznim ekosistemom. Tudi če modela nikoli ne kupite neposredno, lahko vaš sklad podeduje omejitve prek glavnih pogodb, klavzul o pretoku in preverjanj skladnosti. Zato vprašanje »kdo kaj uporablja« hitro postane problem papirologije in ne le razprava o arhitekturi.
Kaj naj storijo poslovni kupci, če se osrednji ponudnik umetne inteligence znajde v zvezni prepovedi javnih naročil za umetno inteligenco?
Začnite z mapiranjem, kje se ponudnik pojavi: neposredna uporaba API-ja, vdelane funkcije in odvisnosti od ponudnikov. Zgradite načrt zamenjave, ki zajema končne točke modela, predloge pozivov, izhodišča za ocenjevanje in odobritve upravljanja, tako da postopno opuščanje ne postane izpad. V mnogih cevovodih nastavitve z dvema ponudnikoma in prenosljive abstrakcije zmanjšajo radij eksplozije, ko se politika čez noč spremeni.
Ali so lahko pravilniki uporabe ponudnika umetne inteligence v nasprotju z vladnimi ali vojaškimi zahtevami?
Da – ta situacija poudarja neposreden konflikt glede tega, ali lahko pravila uporabe ponudnika modela omejujejo občutljive aplikacije. Vlade pogosto zahtevajo maksimalno prilagodljivost, medtem ko laboratoriji lahko uvedejo strožje omejitve za določene primere uporabe. Če služite strankam javnega sektorja, načrtujte pogodbene pogoje, ki dajejo prednost zahtevam poslanstva in lahko zahtevajo različne kontrole ali zagotovila.
Kaj partnerstvo OpenAI–Amazon pomeni za to, kje lahko uporabljate sisteme OpenAI?
Razširja področja, kjer lahko stranke upravljajo in upravljajo sisteme razreda OpenAI, tako da platformo Frontier podjetja OpenAI prenese na AWS. Praktično to lahko pomeni več možnosti infrastrukture in manj enosmernih poti uvajanja. Lahko tudi preusmeri odgovornosti: več gumbov za nastavitev identitete, dostopa in delovanja, kar lahko podpira odpornost, hkrati pa povečuje tveganje konfiguracije.
Kaj je »stateful AI« na AWS in zakaj je pomembna nadzorna ravnina?
»Stalna« umetna inteligenca pomeni sisteme, ki lahko prenašajo kontekst med sejami, kar se v resničnih delovnih procesih lahko zdi bolj podobno agentom. Vprašanje nadzorne ravnine se osredotoča na to, kdo orkestrira identiteto, pomnilnik in delovni proces seje: vaš oblak, laboratorij umetne inteligence ali vaša lastna platformska plast. To je pomembno za upravljanje, odpravljanje napak in odzivanje na incidente, ko gre ob 2. uri zjutraj kaj narobe.
Kako lahko »tiha« sprememba ključa Google API povzroči tveganje izpostavljenosti podatkov Gemini?
Če se vedenje ključev ali pričakovanja glede ravnanja s ključi spremenijo, lahko prakse, ki so se nekoč zdele varne – kot je vdelava ključev – postanejo nevarne, ne da bi ekipe tega opazile. Poročila to opredeljujejo kot problem upravljanja skrivnosti, ki ga še povečujejo integracije umetne inteligence, ne pa kot eno samo osamljeno napako. Pogost pristop je obravnavanje vseh ključev kot visoko tveganih, njihova pogosta rotacija in hramba na strani strežnika za strogim nadzorom dostopa.
Kaj je novega v posodobitvi aplikacije Gemini februarja 2026 in kdo jo dobi?
Google izpostavlja izboljšave Gemini 3.1 in način razmišljanja »Deep Think«, namenjen težjim znanstvenim in inženirskim problemom. Posodobitev poudarja tudi dostop do naročniških ravni, kar pomeni, da se zmogljivosti in dostop lahko razlikujejo glede na naročniški paket. Ločeno je Lyria 3 omenjena kot glasbeni model, ki lahko v beta različici ustvarja kratke skladbe iz besedila ali slik, kar širi ustvarjalna orodja aplikacije.