Že leta živimo v digitalnem okolju, kjer je privzeti model preveč odprt, premalo zaseben in pogosto poslovno zgrajen prav na zbiranju podatkov. Velik del sodobnega interneta temelji na predpostavki, da je uporabnik hkrati vir informacij in produkt. Ravno zato so ideje, kot so end-to-end šifriranje, uporaba VPN-jev, zero-knowledge proofs in sorodni kriptografski preskoki, tako pomembne: pokazale so, da je mogoče prenašati zaupanje, preverjati stanje in graditi sisteme brez nepotrebnega razkritja vsebine. Problem torej ni samo v tehnologiji, ampak v privzetem modelu, kjer preveč stvari odteka ven, še preden se uporabnik tega zares zave.
Če je internet dolgo pobiral naše navade, veliki AI sistemi zdaj pobirajo še način, kako mislimo. V njihove chate ne oddajamo več samo vprašanj, ampak dele svojega notranjega dela: osnutke, strategije, občutljive informacije, raziskavo in logiko odločanja. In prav tu postane problem resen — ne zato, ker je vsak model zlonameren, ampak ker je centralizirani model zgrajen tako, da uporabnik prepogosto odpre preveč svojega sveta sistemom, ki niso njegovi.
Rešitev temelji na open-source in local-first arhitekturi. Ollama predstavlja lokalni modelni sloj za poganjanje odprtih modelov, OpenClaw pa agentski runtime, ki nad tem slojem organizira delovni kontekst, orodja in izvrševanje nalog. Skupaj omogočata sistem, v katerem se dokumenti, osnutki, raziskovalni materiali in občutljive informacije obdelujejo na uporabnikovem računalniku ali v strogo nadzorovanem okolju, z eksplicitnimi dovoljenji, ločenim delovnim območjem in brez privzetega odtekanja podatkov v centralizirane AI storitve. Za zahtevnejše scenarije se lahko arhitektura dodatno utrdi tudi z bolj strogo sandbox logiko ali hardening smermi, kot je NemoClaw.