Novice o umetni inteligenci, 22. februar 2026

Povzetek novic o umetni inteligenci: 22. februar 2026

🏫 V nekaterih šolah klepetalni roboti zaslišujejo učence o njihovem delu. Toda revolucija umetne inteligence skrbi učitelje

Nekatere avstralske šole preizkušajo ostrejši preobrat v slogu »pokaži svoje delo« – učenci opravijo nalogo, nato pa jih klepetalni robot z umetno inteligenco sprašuje naprej in nazaj, da preveri, ali razumejo, kaj so oddali. V bistvu gre za ustni izpit, vendar stroj sprašuje »kaj misliš s tem?«, dokler se ne začneš zvijati.

Večja skrb je neenakomerno uvajanje: industrijski članek opozarja, da bi lahko hitri uporabniki hitro napredovali, medtem ko bi drugi zaostajali, kar bi ustvarilo dvohitrostni izobraževalni sistem. Učitelji prav tako nenehno opozarjajo na znane – in še vedno resne – pomisleke: zasebnost, dobro počutje in kako preprečiti, da bi »pomoč umetne inteligence« zdrsnila v »umetna inteligenca je to storila«.

👮 Metropolitanska policija uporablja orodja umetne inteligence, ki jih zagotavlja Palantir, za opozarjanje na neprimerno vedenje policistov

Londonska metropolitanska policija uporablja umetno inteligenco, ki jo dobavlja Palantir, za analizo notranjih vzorcev delovne sile – bolniških odsotnosti, odsotnosti, nadur – in išče signale, ki bi lahko bili povezani s težavami s profesionalnimi standardi. Projekt je predstavljen kot časovno omejen pilotni projekt in, kar je ključno, metropolitanska policija pravi, da ljudje še vedno sprejemajo dejanske odločitve ... vendar to "še vedno" opravlja veliko dela.

Policijska zveza ni navdušena, saj to imenuje »avtomatizirano sumničenje« in svari pred neprozornimi orodji, ki stres in delovno obremenitev napačno razumejo kot nepravilnosti. To je eden tistih trenutkov, ko se tehnologija na diapozitivu sliši lepo, nato pa si predstavljate, kako se obnese na terenu, in postane ostro zbadajoča.

🛡️ Britanski nadzornik za varstvo zasebnosti v skupni izjavi svari pred slikami, ki jih ustvarja umetna inteligenca

Britanski ICO se je pridružil drugim regulatorjem v skupnem opozorilu glede slik, ustvarjenih z umetno inteligenco, ki prikazujejo prepoznavne osebe brez njihove privolitve – v bistvu: ne jemljite izraza »to je sintetično« kot čarobnega izgovora. Sporočilo je, da je treba zgodaj vzpostaviti zaščitne ukrepe in vključiti regulatorje, namesto da bi se lotili klasične tehnološke poteze, pri kateri najprej pošljejo sporočilo in se nato opravičijo.

Prav tako poudarjajo povečana tveganja za otroke, kar je smiselno, saj je, ko se ta zadeva razširi, kot da bi poskušali bleščice spraviti nazaj v kozarec. Bistvo je, da sta zasebnost in dostojanstvo namenjena preživetju modnega cikla, ali vsaj tako se zdi.

🪖 Ameriški obrambni minister Hegseth je poklical izvršnega direktorja Anthropica na težke pogovore o vojaški uporabi Clauda, ​​poroča Axios

Reuters poroča, da se bo ameriški obrambni minister sestal z izvršnim direktorjem podjetja Anthropic na, kot je opisano, bolj konfrontacijskem pogovoru o vojaški uporabi sistema Claude. Pentagon naj bi želel, da bi glavni ponudniki umetne inteligence dali modele na voljo v tajnih omrežjih z manj omejitvami – Anthropic pa se upira vsakršni rahljanju zaščitnih ukrepov.

Podtekst se bere kot klasična dilema »hitro ukrepajte, vendar ... z raketami«. Če se strani ne moreta dogovoriti o varovalnih ograjah, bi se lahko odnos zaostril ali celo pretrgal – vendar Anthropic tudi sporoča, da pogovori z vlado ostajajo konstruktivni, zato so napeti, vendar (še) ne popolni prekinitveni teksti.

🧠 ChatGPT – Opombe k izdaji

Opombe ob izdaji OpenAI kažejo na razširjeno kontekstno okno za način »razmišljanja« – kar pomeni, da lahko modelu posredujete več besedila in ohranite daljše niti koherentne, ne da bi pri tem izgubili prejšnje podrobnosti. Če ste kdaj videli, da je model »pozabil« nekaj, kar ste dobesedno pravkar rekli (bolečina), je to namenjeno prav temu.

Gre za zelo piflarsko nadgradnjo, ki tiho spreminja praktičnost: daljšo dokumentacijo, bolj zapletene projekte, bolj obsežne raziskovalne seje. Ni glamurozno, ampak je to tista vrsta spremembe vodovodne napeljave, zaradi katere se celotna hiša nenadoma zdi večja.

Pogosta vprašanja

Kaj pomeni, ko šole uporabljajo klepetalnice za »zaslišanje« učencev o nalogah?

V nekaterih avstralskih šolah učenci opravijo nalogo in se nato pogovorijo s klepetalnim robotom z umetno inteligenco, ki preveri njihovo sklepanje. Deluje kot ustni pogovor, ki učence spodbuja k razlagi, kaj so napisali in zakaj. Namen je preveriti razumevanje, ne le rezultate. Prav tako lahko razkrije vrzeli, kadar učenec ne more zagovarjati ključnih trditev.

Kako bi lahko klepetalni roboti z umetno inteligenco v šolah ustvarili »dvohitrostni« izobraževalni sistem?

V poročilu iz industrije se opozarja, da bi lahko šole, ki hitro uvajajo tehnologije, prehitele, medtem ko bi šole, ki se počasneje uvajajo tehnologije, še bolj nazadovale. Če nekatere šole uvedejo orodja umetne inteligence za ocenjevanje razumevanja, podporo učenju ali preprečevanje zlorab, bi lahko hitreje izboljšale rezultate. Druge morda nimajo dovolj proračuna, kadrovskih zmogljivosti ali jasne politike za uvedbo primerljivih sistemov. Ta neenakomerna uporaba lahko poveča obstoječe vrzeli v virih in dosežkih.

Kako učitelji poskušajo preprečiti, da bi se »pomoč umetne inteligence« spremenila v »umetna inteligenca je to storila«?

Pogost pristop je preusmeritev ocenjevanja k procesu in razlagi, ne le k končnemu izdelku. Spraševanja v slogu klepetalnega robota, osnutki, refleksije ali ustni pregledi lahko otežijo oddajo dela, ki ga ne razumete. Učitelji lahko postavijo tudi strožje meje glede sprejemljive pomoči, kot je možganska nevihta v primerjavi s popolnim prepisovanjem. Poudarek ostaja na dokazovanju razumevanja, ne pa na nadzoru vsakega orodja.

Katere težave z zasebnostjo in dobrim počutjem se pojavijo pri uporabi umetne inteligence v učilnicah?

Učitelji nenehno izražajo zaskrbljenost glede tega, kateri podatki o učencih se zbirajo, kje se shranjujejo in kdo lahko dostopa do njih. Obstajajo tudi pomisleki glede dobrega počutja, če se učenci počutijo nenehno nadzorovane ali pod pritiskom zaradi strojno vodenih vprašanj. Otroci so posebna rizična skupina, saj se občutljive informacije lahko širijo ali vztrajajo v sistemih na nepričakovane načine. Številne šole si prizadevajo za uvedbo zaščitnih ukrepov že zgodaj, namesto da bi jih poskušale naknadno namestiti.

Kako Metropolitanska policija uporablja umetno inteligenco, ki jo zagotavlja Palantir, za opozarjanje na morebitno neprimerno ravnanje policistov?

Londonska metropolitanska policija uporablja umetno inteligenco, ki jo dobavlja Palantir, za analizo vzorcev delovne sile, kot so bolniške odsotnosti, odsotnosti in nadure. Cilj je odkriti signale, ki bi lahko bili povezani s težavami s profesionalnimi standardi. Opisan je kot časovno omejen pilotni projekt, metropolitanska policija pa pravi, da odločitve še vedno sprejemajo ljudje. Kritiki trdijo, da se orodje lahko zdi kot »avtomatiziran sum«, če stres razume kot napačno ravnanje.

Zakaj so policijski sindikati zaskrbljeni zaradi »avtomatiziranega suma«, ki ga povzročajo orodja za nadzor z umetno inteligenco?

Policijsko zvezo skrbi, da lahko nepregledni modeli sklepajo na neprimerno ravnanje iz vzorcev, ki imajo nenevarne razlage. Povečanje delovne obremenitve, zdravstvene težave in stres lahko spremenijo prisotnost ali nadure, ne da bi to pomenilo kršitev. Če logika orodja ni pregledna, je policistom težje izpodbijati opozorila ali vodjem umerjati poštene pragove. Tudi pri človeških odločitvah lahko avtomatizirani signali še vedno oblikujejo rezultate.

Na kaj opozarja britanski ICO v zvezi s slikami prepoznavnih oseb, ustvarjenimi z umetno inteligenco?

Britanski nadzornik zasebnosti se je pridružil drugim regulatorjem pri opozorilu, da »sintetično« ne pomeni brez posledic. Če slika, ustvarjena z umetno inteligenco, prikazuje prepoznavno osebo brez njene privolitve, še vedno obstajajo tveganja za zasebnost in dostojanstvo. Regulatorji poudarjajo zgodnjo vzpostavitev zaščitnih ukrepov in nadzor, namesto da bi najprej pošiljali vsebino. Opozarjajo tudi na povečana tveganja za otroke, kjer se lahko škoda hitro poveča, ko se vsebina razširi.

Kaj se skriva za poročanim pritiskom Pentagona na Anthropic glede vojaške uporabe Clauda?

Reuters poroča, da se bo ameriški obrambni minister sestal z izvršnim direktorjem podjetja Anthropic, da bi se pogovarjali o strožjih vprašanjih vojaške uporabe sistema Claude. Pentagon naj bi želel, da bi večji ponudniki umetne inteligence dali modele na voljo v tajnih omrežjih z manj omejitvami. Anthropic se je upiral ohlapnejšim zaščitnim ukrepom in opozarjal na spor glede varovalnih ograj. Odnosi se zdijo napeti, čeprav obe strani kažeta, da so pogovori še vedno konstruktivni.

Kaj se je spremenilo v opombah ob izdaji ChatGPT glede dolžine konteksta načina »Razmišljanje«?

Opombe ob izdaji OpenAI kažejo na razširjeno kontekstno okno za način »Razmišljanje«, kar omogoča, da se v eni niti shrani več besedila. V praksi to lahko pomaga pri dolgih dokumentih, kompleksnih projektih in večstopenjskih raziskavah, kjer so pomembne prejšnje podrobnosti. Gre za nadgradnjo v slogu vodovodarjev in ne za vpadljivo funkcijo. Glavna prednost je manj izgubljenih podrobnosti med daljšimi sejami.

Včerajšnje novice o umetni inteligenci: 21. februar 2026

Poiščite najnovejšo umetno inteligenco v uradni trgovini z umetno inteligenco

O nas

Nazaj na blog