Novice o umetni inteligenci, 15. februar 2026

Povzetek novic o umetni inteligenci: 15. februar 2026

🦞 Ustanovitelj OpenClawa Steinberger se pridružuje OpenAI, odprtokodni bot postane fundacija

Peter Steinberger se odpravlja v OpenAI, da bi promoviral »osebne agente«, medtem ko je OpenClaw sam parkiran v fundaciji, tako da ostane odprtokoden (in podprt). Ta delitev je ... nekako pametna - najemite graditelja, projekt naj bo javen.

OpenClawova predstavitev je osvežujoče praktična: triaža e-pošte, zavarovalniški dokumenti, prijave na lete, nadležno administrativno delo. Prav tako je na GitHubu zelo priljubljen, ta priljubljenost pa je povzročila varnostne pomisleke, še posebej, če ga ljudje uporabljajo neprevidno.

🪖 Pentagon je "naveličan" odpora Anthropica glede uporabe modela umetne inteligence Claude s strani vojske in bi lahko prekinil stike, pravi poročilo

Osrednji del spora: Pentagon si želi širok dostop za »vse zakonite namene«, Anthropic pa si še vedno prizadeva ohraniti stroge omejitve glede popolnoma avtonomnega orožja in množičnega nadzora. To je vrsta nesoglasja, ki se sliši filozofsko, dokler nekdo ne reče: »Morda vas bomo zamenjali.«

Ena podcenjena pomanjkljivost – uradniki ne želijo, da bi model nenadoma blokiral delovne procese sredi postopka, in ne želijo se za vedno pogajati o robnih primerih (pošteno ... ampak tudi joj). Tukaj je resnična napetost »kdo drži ključe« in ta ni subtilna.

🧠 Model za napovedovanje človeškega vedenja pri zagonskih podjetjih

Simile je vložil 100 milijonov dolarjev za izgradnjo modela »omejenega učenja«, katerega cilj je napovedovati, kaj bi ljudje storili – vključno s predvidevanjem verjetnih vprašanj, kot so objave zaslužka. Ozek cilj, velika ambicija, nekoliko nenavadna kombinacija.

Pristop se opira na intervjuje z resničnimi ljudmi in podatke vedenjskih raziskav, nato pa izvaja simulacije z agenti umetne inteligence, ki naj bi odražali resnične preference. To je kot ustvarjanje vremenskega modela za človeške odločitve ... kar se sliši nemogoče, dokler ni več.

🧑⚖️ Novice: Bela hiša pritiska na zakonodajalca iz Utaha, da zavrne zakon o preglednosti umetne inteligence

Prizadevanja za preglednost umetne inteligence na ravni zvezne države Utah so deležna neposrednih kritik Bele hiše, kjer uradniki pozivajo predlagatelja zakona, naj ga ne uveljavlja. Predlog zakona je zasnovan predvsem na preglednosti in varnosti otrok – s čimer se je težko prepirati zgolj na prvi pogled.

Toda večji boj je jurisdikcijski: kdo lahko določa pravila, države ali zvezna vlada. In ja, to je renčanje - kot da bi dva človeka zgrabila isti volan in vztrajala, da sta ona tista, ki je mirna.

🎬 ByteDance se po grožnji Disneyja zavezuje, da bo preprečil nepooblaščeno uporabo IP-naslovov v orodju za video z umetno inteligenco

Disney je izdal prepoved uporabe ByteDanceovega generatorja videoposnetkov z umetno inteligenco, ByteDance pa pravi, da krepi zaščitne ukrepe za preprečevanje nepooblaščene uporabe intelektualne lastnine in podobnosti. Pritožba – domnevno – se nanaša na to, da lahko orodje prikaže znane like iz franšize, kot da bi bili le ... nalepke v javni domeni.

Gre za trčenje, ki so ga vsi pričakovali: orodja za viralne videoposnetke z umetno inteligenco se hitro razvijajo, studii se sodno ukvarjajo in »dodali bomo zaščitne ukrepe« postane privzeti jezik opravičila. V preobratu je tehnologija videti kot čarovnija – pravna plat pa kot gravitacija.

Pogosta vprašanja

Kaj pomeni, da se je ustanovitelj OpenClawa pridružil OpenAI, medtem ko se je OpenClaw preselil v fundacijo?

To kaže na razkol med osebo, ki gradi »osebne agente«, in projektom, ki ostaja javno voden. Steinbergerjeva pridružitev OpenAI nakazuje, da se bo tam osredotočil na razvoj izdelkov v slogu agentov. Namen umestitve OpenClawa v fundacijo je ohraniti njegovo odprtokodno kodo in trajnostno podporo. V praksi je cilj te poteze ohraniti zaupanje skupnosti, medtem ko graditelj gre tja, kjer so viri.

Zakaj so agenti umetne inteligence v slogu OpenClaw osredotočeni na opravila, kot sta e-pošta in papirologija?

Ker je delo »življenjske administracije« ponavljajoče se, temelji na pravilih in je zamudno, je praktična tarča za avtomatizacijo. Primeri tukaj – triaža e-pošte, zavarovalniška dokumentacija in prijava na lete – so ozke naloge z jasnimi merili uspeha. Zaradi te osredotočenosti se lahko agenti prej počutijo dragocene kot bolj odprti asistenti. Prav tako poudarja, zakaj je skrben nadzor dostopa pomemben, ko agenti dotikajo osebne račune.

Kako lahko namestimo odprtokodni agent umetne inteligence, kot je OpenClaw, ne da bi pri tem povzročili varnostne težave?

Obravnavajte ga kot programsko opremo, ki lahko vidi občutljive podatke, ne kot igračo-skript. Pogost pristop je zaklepanje poverilnic, omejitev dovoljenj na najmanjšo potrebno raven ter vodenje dnevnikov in revizijskih sledi. Izvajajte ga v omejenem okolju in ga ločite od sistemov z visoko vrednostjo. Številne varnostne skrbi izvirajo iz neprevidne uvedbe, zlasti ko ljudje izpostavijo končne točke ali žetone brez močnih zaščitnih ukrepov.

Zakaj Pentagon ni zadovoljen z Anthropicovimi omejitvami glede vojaške uporabe Clauda?

Spor se osredotoča na obseg in nadzor: Pentagon si želi širok dostop za "vse zakonite namene", medtem ko Anthropic ostaja v strogih omejitvah glede popolnoma avtonomnega orožja in množičnega nadzora. Uradniki tudi ne želijo, da bi modeli blokirali delovne procese sredi procesa ali zahtevali neskončna pogajanja o skrajnih primerih. Ta napetost je manj abstraktna, kot se sliši – gre za to, kdo odloča, kaj lahko model počne v resničnih operacijah.

Kako zagonska podjetja poskušajo napovedati človeško vedenje z umetno inteligenco in zakaj se to zdi kontroverzno?

Primer Simile sledi modelu »omejenega učenja«, katerega cilj je napovedovanje, kaj bi ljudje storili, vključno s predvidevanjem verjetnih vprašanj v kontekstih, kot so konference o zaslužku. Opisani pristop združuje intervjuje s podatki vedenjskih raziskav in simulacijami z uporabo agentov umetne inteligence, ki naj bi odražali dejanske preference. Zdi se nenavadno, ker umetno inteligenco preusmeri od odzivanja na ljudi k njihovemu napovedovanju. Izziv je ohraniti trditve omejene in se izogniti pretirani samozavesti.

Kaj se zgodi, ko orodja za video z umetno inteligenco ustvarijo avtorsko zaščitene like, kot v spopadu med ByteDance in Disneyjem?

Poročani vzorec je znan: studio izda odredbo o prenehanju in opustitvi, platforma pa se odzove z okrepitvijo zaščitnih ukrepov za preprečevanje nepooblaščene uporabe intelektualne lastnine ali podobnosti. V mnogih orodjih zaščitni ukrepi pomenijo strožje filtre vsebine, izboljšano zaznavanje prepoznavnih likov in jasnejše uveljavljanje uporabniških pravil. Temeljni konflikt je hitrost proti odgovornosti – generiranje virusov se hitro razvija, uveljavljanje pravic pa deluje kot gravitacija. Pričakujte še več takšnih trkov, ko se bodo generatorji videoposnetkov širili.

Včerajšnje novice o umetni inteligenci: 13. februar 2026

Poiščite najnovejšo umetno inteligenco v uradni trgovini z umetno inteligenco

O nas

Nazaj na blog