🏗️ Politico poroča, da ZDA spodbujajo podjetja k novemu "kompaktnemu" podatkovnemu centru za umetno inteligenco ↗
ZDA naj bi poskušale prepričati večja podjetja, da podpišejo nov "sporazum" za podatkovne centre umetne inteligence – v bistvu gre za sveženj zavez o tem, kako naj se ravna s temi ogromnimi računalniškimi kompleksi.
Podrobnosti so še vedno nekoliko meglene (klasika), vendar se zdi smer znana: standardizacija pričakovanj glede energije, varnosti in morda tudi poročanja – vljudna različica politike »prosim, ne dovolite, da se to spremeni v kaos«
🎬 Autodesk toži Google zaradi programske opreme za ustvarjanje filmov z umetno inteligenco ↗
Autodesk toži Google zaradi imena »Flow«, češ da je »Flow« že uporabljal za programsko opremo za produkcijo in upravljanje vizualnih učinkov – in da je Googlovo orodje za ustvarjanje filmov z umetno inteligenco prišlo z isto blagovno znamko.
Ostrejša podrobnost je trditev, da je Google prej namignil, da imena ne bo komercializiral ... nato pa je vseeno nadaljeval z uveljavljanjem blagovnih znamk. Seveda gre za boj za blagovne znamke, vendar nosi tudi energijo majhnega boja med "veliko platformo in specializiranim proizvajalcem orodij".
🏥 Študija kaže, da umetna inteligenca ni nič boljša od drugih metod za paciente, ki iščejo zdravniški nasvet ↗
Nova študija je pokazala, da uporaba umetne inteligence za zdravniške nasvete pacientom ni prekašala drugih pristopov – kar ni presenetljivo in je nekoliko pomirjujoče, odvisno od tega, kako zelo ste se trudili spremljati simptome.
To ne pomeni, da je umetna inteligenca v zdravstvu neuporabna – le možnost »vprašajte bota« ni samodejno nadgradnja obstoječih možnosti, še posebej, če sta bistvo natančnost in varnost.
🩺 Aplikacije in boti, ki jih poganja umetna inteligenca, vdirajo v medicino. Zdravniki imajo vprašanja. ↗
Preiskava raziskuje, kako se aplikacije za zdravje z umetno inteligenco in klepetalni roboti širijo v klinične prostore – včasih hitreje, kot jim lahko sledijo smernice, nadzor ali preprosti dokazi.
Zdravniki izražajo zaskrbljenost glede zanesljivosti, škode za paciente in tega, kdo je odgovoren, ko bot daje nasvete, ki se slišijo samozavestno, a napačno ... kot na primer navigacijski sistem, ki vztraja, da se zapeljete v jezero, le da z zdravili.
📈 Izvršni direktor OpenAI pravi, da je ChatGPT spet dosegel več kot 10-odstotno mesečno rast, poroča CNBC ↗
Izvršni direktor OpenAI je po poročanju dejal, da se je ChatGPT vrnil k več kot 10-odstotni mesečni rasti – kar je velika stvar, če predpostavimo, da je faza »vsi so ga že preizkusili« dosegla vrhunec.
To kaže, da bodisi novi uporabniki še vedno prihajajo bodisi obstoječi uporabniki najdejo več razlogov, da ostanejo – ali oboje. Kakorkoli že, izdelek se obnaša manj kot muha mode in bolj kot infrastruktura ... ali vsaj tako se zdi.
Pogosta vprašanja
Kaj je predlagani "sporazum" o podatkovnih centrih umetne inteligence, ki ga promovirajo ZDA?
Opisan je kot sveženj zavez, s katerimi bi se velika podjetja strinjala pri gradnji ali upravljanju velikih podatkovnih centrov za umetno inteligenco. Namen je standardizirati pričakovanja, da ti obsežni računalniški projekti ne bi postali razpršeni ali nedosledni med podjetji. Čeprav se podrobnosti še vedno zdijo nejasne, se zdi, da je poudarek na praktičnem področju: poraba energije, varnost in morda neka oblika poročanja.
Zakaj bi ZDA želele, da podjetja podpišejo sporazum o podatkovnih centrih umetne inteligence?
Dogovor lahko vzpostavi skupna osnovna pričakovanja, ne da bi zakonodajalce prisilil k pripravi novega pravila za vsak robni primer. Ker se podatkovni centri umetne inteligence hitro širijo, oblikovalce politik pogosto skrbi vpliv na omrežje, varnostna tveganja in operativna preglednost. Pogosta strategija je zgodnje usklajevanje največjih akterjev, da se dobre prakse hitreje širijo in je odgovornost lažje izslediti, če se pojavijo težave.
Katere vrste zavez bi lahko vključili v sporazum o podatkovnih centrih z umetno inteligenco?
Glede na to, kar je bilo predlagano, bi lahko zaveze zajemale energetsko načrtovanje (kako se energija pridobiva in upravlja), varnostne ukrepe (fizične in kibernetske) ter neko obliko poročanja ali razkritja. V mnogih postopkih poročanje postane »lažja« plast, ki standarde naredi berljive in merljive. Če je dogovor prostovoljen, se te zaveze lahko oblikujejo kot smernice, ki kasneje pomagajo oblikovati regulacijo.
Kaj je tožba glede Googlovega orodja za ustvarjanje filmov z umetno inteligenco, imenovanega "Flow"?
Autodesk toži Google zaradi imena »Flow« in trdi, da Autodesk že uporablja »Flow« za programsko opremo za produkcijo in upravljanje vizualnih učinkov. Spor je opredeljen kot konflikt blagovne znamke in blagovne znamke, poleg tega pa obstaja tudi obtožba, da je Google prej namigoval, da imena ne bo komercializiral, a je kasneje vseeno zahteval zaščito blagovnih znamk. Ti primeri se pogosto nanašajo na prednost blagovne znamke in verjetnost zmede.
Kaj pomeni, da umetna inteligenca ni bila boljša od drugih metod za zdravniško svetovanje pacientom?
To nakazuje, da »vprašaj bota« ni samodejno natančnejši ali varnejši od obstoječih načinov, s katerimi pacienti iščejo pomoč. To se lahko zdi pomirjujoče, če vas skrbijo preveč samozavestni odgovori preverjalcev simptomov ali klepetalnih robotov. To ne izključuje potencialne vrednosti umetne inteligence v zdravstvu, vendar poudarja potrebo po dokazih, nadzoru in skrbni integraciji, kjer lahko napake povzročijo škodo.
Zakaj so zdravniki zaskrbljeni zaradi zdravstvenih aplikacij in klepetalnih robotov, ki jih poganja umetna inteligenca?
Zdravnike skrbi zanesljivost, škoda za paciente in kdo je odgovoren, ko orodje daje samozavestne, a napačne nasvete. Skrb ni le v natančnosti, temveč tudi v tem, kako pacienti interpretirajo rezultate in ali sistem ljudi spodbuja k nevarnemu samoobvladovanju. V kliničnih okoljih lahko nejasna odgovornost postane veliko tveganje: pacienti lahko zaupajo orodju, zdravniki ga morda ne nadzorujejo, smernice pa lahko zaostajajo za sprejetjem.