🌍 OpenAI si prizadeva povečati globalno uporabo umetne inteligence v vsakdanjem življenju ↗
OpenAI spodbuja bolj »na države« usmerjeno uvajanje – predlog: nehajte z umetno inteligenco ravnati kot z laboratorijsko igračo in jo začnite vključevati v javne storitve, s katerimi se ljudje stikajo vsak dan.
Nekaj primerov, ki so bili omenjeni, vključuje uvajanje v izobraževanje (pomislite na orodja v slogu ChatGPT, ki se uporabljajo v velikem obsegu), ter delo na praktičnih sistemih, kot so zgodnja opozorila za nesreče, povezane z vodo. Gre za zelo sporočilo »to bi moralo biti tiho praktično«, ki mi je zelo všeč ... čeprav je to tudi, veste, poslovna strategija.
⚡ OpenAI obljublja, da bo znižal stroške energije za Stargate ↗
OpenAI pravi, da bo kril stroške energije, povezane z izgradnjo podatkovnega centra Stargate, in to utemeljuje z dejstvom, da ne želi zvišati lokalnih cen elektrike za vse ostale.
To lahko pomeni financiranje novih energetskih zmogljivosti, shranjevanja, nadgradenj prenosa ali druge infrastrukture, ki preprečuje, da bi omrežje pod obremenitvijo stokalo. Delno gre za držo dobrega državljana, delno za preventivno politiko – oboje je lahko hkrati resnično, kar je nadležno.
🎧 OpenAI namerava svojo prvo napravo dobaviti leta 2026, in to bi lahko bile slušalke ↗
Govorice o strojni opremi OpenAI se kar kopičijo, ta pa pravi, da bi prva naprava lahko bile slušalke – pripomoček, ki ga »prvič uporablja umetna inteligenca« in ga nosite, ne le aplikacija, ki jo odprete.
Govori se o kodnem imenu (»Sweet Pea«) in agresivnih ambicijah glede silicija, kjer se več obdelave dogaja na napravi, namesto da bi se vedno prenašala v oblak. Zamenjava navad ljudi s slušalkami je kot poskus preusmeritve reke z žlico ... ampak hej, bolj divje stave na izdelke so se obnesle.
📜 Anthropicova nova Claudovova "ustava": bodite koristni in pošteni ter ne uničujte človeštva ↗
Anthropic je objavil posodobljeno »Claudovo ustavo« – v bistvu načrt vrednot in vedenja, ki naj bi oblikoval Claudov odziv, razloge in zavrnitve.
Postavlja ostrejše meje glede resnično nevarnih stvari (orožje, škoda velikega obsega, prisvajanje oblasti, mračni največji hiti), hkrati pa se naslanja na bolj niansirana "načela" namesto na toge pravila. En presenetljivo pikanten del: odkrito govori o negotovosti glede tega, ali si napredna umetna inteligenca zasluži moralno obravnavo - ne trdi, da si jo, ampak vprašanje obravnava kot živo.
🛡️ Nove varnostne funkcije in funkcije zaznavanja z umetno inteligenco za Google Workspace for Education ↗
Google je napovedal nove varnostne funkcije programa Workspace for Education, s poudarkom na zaznavanju in preverjanju vsebin, ki jih ustvarja umetna inteligenca – saj se dezinformacije v šolah širijo kot bleščice in nikoli v celoti ne zapustijo preproge.
Ena od glavnih prednosti je preverjanje, povezano s SynthID, za slike in videoposnetke, ustvarjene z umetno inteligenco, v aplikaciji Gemini, skupaj z močnejšimi zaščitami, kot sta zaznavanje izsiljevalske programske opreme in lažje obnavljanje datotek za Drive v namiznem računalniku. Gre za mešanico resnega varnostnega dela in »zaupajte nam v učilnicah«, kar je ... pošteno, če sem iskren.
🚫 Izvršni direktor Googla DeepMind ponovno poudarja, da "ni načrtov" za oglase Gemini, presenečen, da jih je ChatGPT dodal "tako zgodaj" ↗
Demis Hassabis iz DeepMind-a je ponovil, da Gemini nima načrtov za oglase, in zvenel je nekoliko presenečen, da se je ChatGPT tako zgodaj lotil oglasov
Gre za čisto pozicioniranje – asistent kot izdelek, ne asistent kot oglasni pano. Kljub temu je »brez načrtov« korporativni izraz za »vprašajte me pozneje«, zato ... bomo videli, kako trdna se bo ta obljuba izkazala.
🏛️ Nove smernice bodo Združenemu kraljestvu pomagale pri učinkovitem in odgovornem urejanju umetne inteligence ↗
Inštitut Alana Turinga je objavil okvir regulativnih zmogljivosti in orodje za samoocenjevanje, katerega cilj je pomagati britanskim regulatorjem oceniti, ali so opremljeni za nadzor nad umetno inteligenco.
Zelo neglamurozno je – kontrolni seznami, dejavniki zmogljivosti, izjave o tem, »kako izgleda dobro« – ampak to je nekako bistvo. Pravo upravljanje je ponavadi videti kot papirnati dokumenti z ostrimi robovi, ne pa kot bleščeči glavni govori ... ali vsaj tako se zdi.
Pogosta vprašanja
Kakšna so prizadevanja OpenAI, osredotočena na posamezne države, za povečanje globalne uporabe umetne inteligence v vsakdanjem življenju?
Gre za premik od obravnave umetne inteligence kot samostojnega izdelka k njeni vključitvi v javne storitve, na katere se ljudje vsak dan zanašajo. Cilj je umetno inteligenco povezati s praktičnimi sistemi, ki zahtevajo veliko dotika, namesto da bi jo pustili obtičati v »laboratorijskih« demonstracijah. Omenjeni primeri vključujejo obsežne uvedbe v izobraževalne ustanove in orodja za varnost, usmerjena v javnost. Predstavljena je kot tiho koristna, čeprav podpira širšo strategijo uvedbe OpenAI.
Kako bi se lahko načrt OpenAI pojavil v javnih storitvah, kot sta izobraževanje ali odzivanje na nesreče?
V izobraževanju gre za koncept orodij v slogu ChatGPT, ki se uporabljajo v velikem obsegu, tako da lahko šole vključijo umetno inteligenco v rutinske učne poteke. Pri odzivanju na nesreče je OpenAI izpostavil sisteme zgodnjega opozarjanja, povezane z vodo, kot primer »tiho praktične« infrastrukture. Skupna nit je pomoč, ki se nudi na mestu potrebe, z orodji, vgrajenimi v obstoječe storitve. Uspeh bi bil verjetno odvisen od zanesljivosti, nadzora in utemeljene integracije.
Zakaj je OpenAI rekel, da bo kril stroške energije za izgradnjo podatkovnega centra Stargate?
OpenAI je to opredelil kot prizadevanje, da se lokalne cene električne energije ne zvišajo z ogromnim novim povpraševanjem po omrežju. Pokrivanje stroškov bi lahko vključevalo financiranje novih energetskih zmogljivosti, shranjevanja, nadgradenj prenosa ali druge infrastrukture, ki zmanjšuje obremenitev. Postavljeno je kot poteza dobrega soseda in način za preprečevanje političnega in skupnostnega odpora. V praksi to kaže, da so energetski vplivi zdaj osrednjega pomena za načrte za povečanje povpraševanja po umetni inteligenci.
Kaj je najnovejše o govoricah o strojni opremi OpenAI – ali so slušalke »prvi z umetno inteligenco« resnično verjetne?
Poročilo nakazuje, da OpenAI načrtuje, da bo svojo prvo napravo lansiral leta 2026, s slušalkami kot potencialno obliko. Koncept je nosljiva naprava, ki jo »prvič uporablja umetna inteligenca« in jo uporabljate neprekinjeno, ne le kot aplikacijo, ki jo odprete. Govori se o kodnem imenu (»Sweet Pea«) in ambicijah za večjo obdelavo na napravi, namesto da bi se v celoti zanašali na oblak. Ta pristop bi lahko interakcije naredil hitrejše in bolj zasebne, odvisno od izvedbe.
Kaj je Anthropicova posodobljena »Claudeova ustava« in kaj spreminja?
Gre za objavljen načrt vrednot in vedenja, zasnovan tako, da oblikuje, kako se Claude odziva, utemeljuje in zavrača prošnje. Posodobitev poudarja ostrejše meje glede resnično nevarnih področij, kot so orožje, škoda velikega obsega in vedenje, ki išče moč. Nagiba se tudi k bolj niansiranim "načelom" namesto k togim pravilom. Omeniti velja, da vprašanje moralne presoje za napredne umetne inteligence obravnava kot odprto vprašanje in ne kot urejen zahtevek.
Katere nove varnostne funkcije in funkcije zaznavanja z umetno inteligenco je Google dodal v Workspace for Education?
Google je napovedal močnejšo zaščito programa Workspace for Education, vključno s poudarkom na zaznavanju in preverjanju vsebin, ki jih ustvari umetna inteligenca. Ena od glavnih značilnosti je preverjanje, povezano s SynthID, za slike in videoposnetke, ki jih ustvari umetna inteligenca, v aplikaciji Gemini. Posodobitev omenja tudi zaznavanje izsiljevalske programske opreme in lažje obnovitev datotek za Drive v namiznem računalniku. Na splošno je zasnovana kot varnostno delo, osredotočeno na učilnice, katerega cilj je pomagati šolam pri učinkovitejšem obvladovanju dezinformacij in incidentov.
Bo Googlov Gemini prikazoval oglase in zakaj je DeepMind komentiral, da jih je ChatGPT dodal?
Izvršni direktor podjetja DeepMind, Demis Hassabis, je ponovil, da Gemini »nima načrtov« za oglase, in izrazil presenečenje, da se je ChatGPT »tako zgodaj« lotil oglasov. To sporočilo Gemini postavlja kot pomočnika kot izdelek in ne kot pomočnika kot oglasni pano. Hkrati pa »brez načrtov« pušča prostor za prihodnje spremembe brez zavezujoče obljube. Za uporabnike to poudarja nastajajočo delitev poslovnih modelov pri potrošniških pomočnikih z umetno inteligenco.
Kaj naj bi naredil okvir za regulacijo zmogljivosti umetne inteligence Inštituta Alan Turing?
Gre za okvir regulativnih zmogljivosti in orodje za samoocenjevanje, katerega namen je pomagati britanskim regulatorjem oceniti, ali so opremljeni za učinkovit nadzor nad umetno inteligenco. Pristop je namerno neprivlačen: kontrolni seznami, dejavniki zmogljivosti in izjave o tem, »kako je videti dobro«. Cilj je, da upravljanje postane operativno, ne le ambiciozno. Najbolj je koristen za regulatorje in politične skupine, ki morajo prepoznati vrzeli, preden se okrepi izvrševanje ali nadzor.