🏛️ Vlada bo ustanovila nov laboratorij, da bi Združeno kraljestvo ostalo v hitrem pasu pri prebojih umetne inteligence ↗
Združeno kraljestvo ustanavlja vladno podprt laboratorij za temeljne raziskave umetne inteligence in ga predstavlja kot delo, ki je »nepredvidljivo« – takšno, ki je tvegano, počasno in se včasih izplača tako, da so vsi ostali videti, kot da so zadremali. ( GOV.UK )
Poudarek ni le na »večjih modelih, več grafičnih procesorjih« – gre za odpravljanje vztrajnih pomanjkljivosti, kot so halucinacije, kratek spomin in nepredvidljivo sklepanje, ter za omogočanje dostopa raziskovalcem do resnih računskih zmogljivosti prek AI Research Resource. Sliši se zelo smiselno ... in tudi, tiho, kot poskus preprečiti, da bi bili najboljši britanski umi takoj posesani drugam. ( GOV.UK )
🧨 Izvršni direktor Nvidie namiguje na konec naložb v OpenAI in Anthropic ↗
Jensen Huang nakazuje, da Nvidia morda ne bo več vlagala v nove laboratorije za umetno inteligenco na enak način – dinamika prvih javnih ponudb delnic (in obseg pregledov, o katerih se razpravlja) otežuje izvedbo takšnega načina financiranja. ( Reuters )
Gre za tonski premik, ki ga je vredno opaziti: Nvidia je v celotnem tem razcvetu kralj kramp in lopat, a hkrati namiguje, da "lastništvo delov rudarjev" ni več vedno prednost. Ali pa gre morda le za glasno varovanje, kar izvršni direktorji počnejo, kot da bi dihajo. ( Reuters )
🧩 Ekskluzivno: Velika tehnološka skupina podpira Anthropic v boju proti Pentagonu, saj si vlagatelji prizadevajo za umiritev spora glede zaščitnih ukrepov umetne inteligence ↗
Anthropicov spor s Pentagonom se spreminja v pravi pritisk – vlagatelji naj bi želeli znižati temperaturo, medtem ko se podjetje trudi vztrajati pri svojem stališču glede zaščitnih ukrepov (zlasti glede nadzora). ( Reuters )
Podtekst zgodbe je skoraj glasnejši od samega besedila: v dobi umetne inteligence besedilo pogodbe ni "pravno sitnost", temveč je v bistvu politika izdelka – in odloča o tem, ali model postane orodje, orožje ali velika odgovornost. ( Reuters )
🪖 Sam Altman priznava, da OpenAI ne more nadzorovati uporabe umetne inteligence v Pentagonu ↗
Altman je po poročanju osebja povedal, da OpenAI ne more nadzorovati, kako Pentagon uporablja svojo umetno inteligenco, ko je ta enkrat nameščena – kar je pristalo z bobnenjem, ker je poimenovala točno tisti strah, okoli katerega so ljudje krožili. ( The Guardian )
Širše ozadje je naraščajoče trenje med »pomagali bomo s pravili« in »pomagali bomo, pika«, ter notranji in javni odzivi, ko se zdi, da je vojaška posvojitev prenagljena ali oportunistično. Etika tukaj ni toliko čista črta, temveč bolj razlitje mokre barve – vsi stopijo vanjo in se nato prepirajo, čigav čevelj je. ( The Guardian )
🧬 Štipendija za novo umetno inteligenco v genomiki z inštitutom Sanger in Google DeepMind ↗
Inštitut Wellcome Sanger začenja s programom DeepMind za akademsko štipendijo, osredotočeno na uporabo umetne inteligence v genomiki – to je prvo tovrstno mesto za sodelavce programa DeepMind na tem specifičnem področju. ( sanger.ac.uk )
Zanimivo (in, odkrito povedano, nekoliko osvežujoče) je poudarek na premalo raziskanih problemih genomike, kjer umetna inteligenca še ni povsod – poleg tega pa še izrecna opomba, da DeepMind ne usmerja raziskav sodelavca. To je kot da bi nekomu dali raketo in rekli »pojdi nekaj odkriti«, namesto »pojdi optimizirat naš načrt«. ( sanger.ac.uk )
Pogosta vprašanja
Kaj je vladni raziskovalni laboratorij za temeljno umetno inteligenco, ki ga podpira britanska vlada, in kaj bo počel?
Vladno podprt Laboratorij za temeljne raziskave umetne inteligence se pozicionira kot »nepredvidljivo« raziskovalno prizadevanje – delo z visokim tveganjem, ki se lahko obrestuje s časom. Namesto da bi se osredotočil le na skaliranje vedno večjih modelov, si prizadeva za reševanje trajnih težav, kot so halucinacije, kratek spomin in nepredvidljivo sklepanje. Namen je, da preboji izhajajo iz osnov, ne zgolj iz dodajanja več grafičnih procesorjev.
Kako bi lahko britanski laboratorij za temeljne raziskave umetne inteligence raziskovalcem pomagal dostopati do resnih računalnih sistemov?
Poleg britanskega laboratorija za temeljne raziskave umetne inteligence načrt poudarja dostop do znatnih računskih zmogljivosti prek raziskovalnega vira umetne inteligence. V praksi to pomeni, da lahko raziskovalci izvajajo poskuse, ki bi jih sicer omejevali stroški ali infrastruktura. Omogoča tudi ekipam, da preizkušajo ideje v obsegu, kjer problemi, kot sta zanesljivost in robustnost, postanejo konkretni, ne le teoretični.
Zakaj Združeno kraljestvo poudarja halucinacije, kratek spomin in nepredvidljivo sklepanje?
Te slabosti se pojavijo že pri uvajanju in lahko hitro spodkopljejo zaupanje. Navedeni poudarek nakazuje, da cilj ni le zmogljivost, temveč zanesljivost – zmanjšanje izmišljenih rezultatov, izboljšanje načina, kako modeli obravnavajo daljši kontekst, in manj neenakomerno sklepanje. Takšno delo je pogosto počasnejše in bolj tvegano, zato je opredeljeno kot temeljna raziskava.
Kaj pravzaprav signalizira sprememba tona Nvidie glede vlaganja v OpenAI ali Anthropic?
Poročilo to opredeljuje kot namig, da Nvidia morda ne bo več vlagala v nove laboratorije na enak način, še posebej ker dinamika prvih javnih ponudb delnic in ogromni čeki otežujejo to strategijo. Čeprav je vodilna na področju strojne opreme umetne inteligence, ki uporablja metodo »krampa in lopate«, nakazuje, da lastniški deleži niso vedno najboljša poteza. Lahko bi šlo tudi za previdno sporočilo, ki je pogosto v komentarjih vodstva.
Zakaj je spor Anthropica s Pentagonom glede "zaščitnega jezika" tako pomemben?
Ključna točka članka je, da lahko besedilo pogodbe postane politika izdelka – zlasti kadar se nanaša na nadzor in druge občutljive uporabe. Vlagatelji naj bi želeli umiriti spor, medtem ko si podjetje prizadeva vztrajati pri svojih zaščitnih ukrepih. V mnogih uvedbah umetne inteligence te klavzule oblikujejo, za kaj se lahko sistem uporablja in katera tveganja podjetje dejansko sprejema.
Kaj pomeni, ko Sam Altman pravi, da OpenAI ne more nadzorovati, kako Pentagon uporablja umetno inteligenco?
Opisuje praktično omejitev: ko je orodje enkrat uvedeno, ima lahko prvotni razvijalec omejene možnosti za upravljanje nadaljnje uporabe. To je močno obremenjeno, saj kaže na osrednji strah, ki ga ljudje izražajo glede vojaške uporabe – pravila morda obstajajo v fazi sklepanja pogodb, vendar je lahko njihovo izvajanje težko. Odraža tudi širšo napetost med »pomočjo z omejitvami« in »pomočjo, ne glede na vse«