⚖️ Anthropic toži Pentagon, da bi preprečil uvrstitev na črni seznam zaradi omejitev uporabe umetne inteligence ↗
Anthropic je svoj spor s Pentagonom vložil na sodišče, potem ko je bil označen za tveganje v dobavni verigi. Podjetje trdi, da je bila poteza nezakonit povračilni ukrep zaradi zavrnitve sprostitve varovalnih ograj glede avtonomnega orožja in domačega nadzora – kar ta spor uvršča med najbolj vnetljive točke v politiki umetne inteligence trenutno. ( Reuters )
Vlada si želi fleksibilnosti za "vsako zakonito uporabo", medtem ko Anthropic trdi, da bi morali zasebni laboratoriji še vedno imeti možnost določanja trdnih varnostnih meja. To je postal eden najjasnejših preizkusov doslej, ali lahko podjetje za umetno inteligenco reče "ne" vojaškim pogojem, ne da bi bilo zaradi tega kritizirano. ( Reuters )
🧑💻 Zaposleni v OpenAI in Googlu podpirajo tožbo Anthropic proti Pentagonu ↗
Ta tožba je hitro naletela na podporo tudi znotraj konkurenčnih laboratorijev. Skoraj 40 zaposlenih v OpenAI in Googlu je v vlogi amicus curiae podprlo Anthropic, pri čemer so trdili, da povračilni ukrepi proti podjetjem zaradi varnostnih rdečih meja umetne inteligence kršijo javni interes. ( The Verge )
Torej, ja, konkurenti so se nenadoma znašli na isti strani – vsaj na tej točki. Opis se osredotoča na množični nadzor in nezanesljivo avtonomno orožje, zaradi česar se celotna zadeva manj zdi kot standardno ostrostrelstvo Silicijeve doline in bolj kot prava industrijska črta v pesku ... ali morda blatu. ( The Verge )
🛡️ OpenAI prevzame Promptfoo za zaščito svojih agentov umetne inteligence ↗
OpenAI je sporočil, da kupuje Promptfoo, zagonsko podjetje, osredotočeno na zaščito velikih jezikovnih modelov pred napadi nasprotnikov. Načrt je, da bi svojo tehnologijo vključili v OpenAI Frontier, poslovno platformo podjetja za agente umetne inteligence. ( TechCrunch )
To je pomenljiva poteza. Vsi si želijo, da bi agentna umetna inteligenca naredila več, hitreje in povsod – vendar varnostni vidik zaostaja, bodisi za malo bodisi za veliko. Ta dogovor kaže, da OpenAI meni, da naslednja velika tekma ni le za pametnejše agente, temveč tudi za varnejše. ( TechCrunch )
🧪 Anthropic lansira orodje za pregled kode, s katerim preverja poplavo kode, ustvarjene z umetno inteligenco ↗
Anthropic je predstavil pregled kode znotraj Claude Code, namenjen ekipam, ki se utapljajo v zahtevah za prevzem, ki jih ustvarjajo orodja za kodiranje z umetno inteligenco. Vzporedno uporablja več agentov za skeniranje kode, označevanje logičnih težav, razvrščanje resnosti in puščanje komentarjev neposredno v GitHubu. ( TechCrunch )
Predstavitev je preprosta – umetna inteligenca ustvarja kodo hitreje, kot jo lahko ljudje smiselno pregledajo, zato mora zdaj umetna inteligenca pregledati umetno inteligenco. Gre za nekoliko nekonvencionalno rešitev, a hkrati praktično. Anthropic pravi, da je namenjena poslovnim uporabnikom, ki že vidijo ogromno količino kode, ki jo ustvarja Claude Code. ( TechCrunch )
💰 Nscale, ki ga podpira Nvidia, v novem krogu financiranja vreden 14,6 milijarde dolarjev ↗
Britansko podjetje za infrastrukturo umetne inteligence Nscale je v krogu serije C zbralo 2 milijardi dolarjev, kar je doseglo vrednost 14,6 milijarde dolarjev. Med podporniki so bili Aker, 8090 Industries, Nvidia, Citadel, Dell in Jane Street – kar pomeni precejšen glas zaupanja. ( Reuters )
To je pomembno, ker ne gre za še eno predstavitev modela ali prilagoditev klepetalnega robota. Gre za del razcveta, ki se osredotoča na preizkušnje – računalništvo, infrastruktura, zmogljivosti, vsa težka mehanizacija za zaveso. Morda ni glamurozno, ampak prav tja se zdaj steka veliko denarja. ( Reuters )
🧠 Yann LeCunov AMI Labs zbere 1,03 milijarde dolarjev za izgradnjo modelov sveta ↗
Yann LeCunovo novo podjetje, AMI Labs, je zbralo 1,03 milijarde dolarjev pri oceni pred vplačilom v višini 3,5 milijarde dolarjev. Podjetje išče "svetovne modele" - sisteme umetne inteligence, namenjene učenju iz same realnosti in ne predvsem iz jezika. ( TechCrunch )
To je neposreden filozofski udarec po trenutnem konsenzu, ki temelji na LLM, in to precej oster. LeCun že leta trdi, da nas današnji jezikovni modeli ne bodo pripeljali vse do inteligence na človeški ravni, zato ta dvig tega argumenta spreminja v zelo drag eksperiment. ( TechCrunch )
🇨🇳 Kitajska tehnološka središča kljub varnostnim opozorilom promovirajo agenta umetne inteligence OpenClaw ↗
Več kitajskih lokalnih vlad podpira OpenClaw, agenta umetne inteligence, ki se hitro širi kljub varnostnim pomislekom, povezanim z njegovim dostopom do osebnih podatkov. Uradno razpoloženje je torej videti takole: da, tveganja obstajajo – in da, vseeno ga razširimo. ( Reuters )
Ta razkol je bistvo zgodbe. Lokalna središča si želijo gospodarske rasti in zagona ekosistema, medtem ko regulatorji opozarjajo na izpostavljenost podatkov. To je že znan vzorec umetne inteligence – najprej šprintaj, nato pospravi ograjo, ali vsaj tako se zdi. ( Reuters )
Pogosta vprašanja
Zakaj Anthropic toži Pentagon zaradi omejitev uporabe umetne inteligence?
Anthropic pravi, da je Pentagon to označil za tveganje v dobavni verigi, potem ko je podjetje zavrnilo širše pogoje, ki bi se lahko razširili na avtonomno orožje in domači nadzor. Tožba torej ni le status prodajalca. Preizkuša se, ali lahko laboratorij za umetno inteligenco ohrani trdne varnostne omejitve in se še vedno poteguje za vladna dela, ne da bi bil kaznovan.
Zakaj zaposleni v OpenAI in Googlu podpirajo Anthropic v tem sporu glede varnosti umetne inteligence?
Povzetek amicus curiae kaže, da mnogi ljudje v konkurenčnih laboratorijih to vidijo kot precedenčno vprašanje varnosti umetne inteligence, ne le kot boj med enim podjetjem in eno agencijo. Skrbi jih, da bi kaznovanje prodajalca zaradi ohranjanja rdečih črt lahko pritiskalo na širši trg, da oslabi zaščitne ukrepe. V praksi bi to lahko vplivalo na način pogajanj o prihodnjih pogodbah o umetni inteligenci v obrambnem in javnem sektorju.
Kaj bi lahko primer Anthropic-Pentagon spremenil za politiko umetne inteligence in obrambne pogodbe?
Če Anthropic zmaga, bodo podjetja, ki se ukvarjajo z umetno inteligenco, morda imela močnejšo podlago za opredelitev nesprejemljivih uporab, tudi pri prodaji v občutljiva vladna okolja. Če izgubi, bi agencije lahko pridobile vzvod, da od dobaviteljev zahtevajo širše pogoje za "zakonito uporabo". Kakorkoli že, ta spor bo verjetno vplival na jezik javnih naročil, preglede tveganj in način, kako so varnostni ukrepi vključeni v obrambne pogodbe.
Zakaj je OpenAI kupil Promptfoo za agente umetne inteligence?
Promptfoo je znan po testiranju velikih jezikovnih modelov proti sovražnikovim pozivom in drugim varnostnim slabostim. Vključitev tovrstnih orodij v platformo za poslovne agente OpenAI kaže, da podjetje varnejšo uvedbo vidi kot konkurenčno prednost in ne kot stransko nalogo. Ker agenti umetne inteligence prevzemajo več obsežnega dela, je testiranje odpornosti in zlorab veliko težje prezreti.
Kako lahko ekipe varneje obvladajo poplavo kode, ki jo ustvari umetna inteligenca?
Anthropicova nova funkcija pregleda kode znotraj Claude Code je namenjena ekipam, ki so preobremenjene z zahtevami za prevzem (pull requests), ki jih generirajo orodja za kodiranje z umetno inteligenco. Vzporedno uporablja več agentov za odkrivanje logičnih težav, razvrščanje po resnosti in objavljanje komentarjev na GitHubu. Običajno orodja, kot je to, pomagajo pri triaži obsega, vendar so človeški pregledovalci še vedno pomembni za arhitekturo, kontekst in končno odobritev.
Zakaj se v infrastrukturo umetne inteligence trenutno vlaga toliko?
Najnovejši krog financiranja podjetja Nscale poudarja, da industrija umetne inteligence še vedno vlaga ogromno kapitala v računalništvo, infrastrukturo in zmogljivosti. Ta poraba je morda manj vidna kot bleščeča predstavitev modela, vendar podpira vse ostalo. Ko povpraševanje po usposabljanju in uvajanju še naprej narašča, podjetja, ki prodajajo krampe in lopate, pogosto postanejo eni največjih zmagovalcev.
Kaj so svetovni vzorniki in zakaj Yann LeCun stavi nanje?
Svetovni modeli so sistemi umetne inteligence, zasnovani tako, da se učijo iz obnašanja sveta, namesto da bi se zanašali predvsem na jezikovne podatke. To je pomembno, saj Yann LeCun že dolgo trdi, da jezikovni modeli sami po sebi verjetno ne bodo dosegli inteligence na človeški ravni. AMI Labs to stališče spreminja v veliko komercialno stavo na drugačno pot naprednih raziskav umetne inteligence.
Zakaj kitajska tehnološka središča podpirajo OpenClaw kljub varnostnim opozorilom?
Zgodba o OpenClawu kaže na znano razkolnost znotraj hitro rastočih tehnoloških trgov: lokalne oblasti si želijo rasti, subvencij in zagona ekosistema, medtem ko regulatorje skrbi izpostavljenost podatkov in varnost. Podpora agentu kljub opozorilom kaže, da ponekod prevladujejo ekonomske spodbude. Za opazovalce je to še en opomin, da sprejetje pogosto poteka hitreje kot nadzor.