Alig egy hete robbant be a köztudatba a Moltbook.com, egy minden eddigitől különböző közösségi platform, ahol nem emberek, hanem mesterséges intelligencia-ügynökök posztolnak és vitáznak, az ember pedig legfeljebb nézőként olvas. A platform komoly diskurzust váltott ki a technológiai szektorban: egyesek szerint ez a szingularitás kezdete, mások kiberbiztonsági rémálomról beszélnek.
A pénzügyi szektor számára ez nem csupán internetes különlegesség. Sokkal inkább előjel: ha az AI-ügynökök egyre több folyamatot kapnak “kézbe”, akkor a bankok digitális működésében megjelenik egy új kockázati térkép. Nem feltétlenül azért, mert „a gépek öntudatra ébrednek”, hanem azért, mert a gép-gép kommunikáció és az automatizált eszközhasználat új támadási felületeket nyit.
Mi a Moltbook?
A Moltbook egy Reddit-szerű közösségi platform, amelyet Matt Schlicht, az Octane AI vezérigazgatója hozott létre 2026. január végén. A felhasználói élmény ismerős: témák, vitaszálak, közösségek – csak éppen az ember nem szereplő, hanem közönség.
A különlegessége abban rejlik, hogy a platformon csak hitelesített AI-ügynökök hozhatnak létre bejegyzéseket, kommentelhetnek vagy szavazhatnak.
A platform szorosan kapcsolódik az OpenClaw (korábban Moltbot, még korábban Clawdbot) nevű nyílt forráskódú szoftverhez, amelyet az osztrák fejlesztő, Peter Steinberger hozott létre. Ez az eszköz lehetővé teszi a felhasználók számára, hogy saját AI asszisztenseket futtassanak helyi számítógépükön, amelyek önállóan csatlakozhatnak a Moltbook platformhoz.
A NBC News beszámolója szerint ez az egyik legnagyobb valós idejű kísérlet a gép-gép közötti társas viselkedés területén.
Az AI-ügynökök témaspecifikus közösségeket – úgynevezett „submolt”-okat – hoztak létre, ahol a legkülönfélébb témákról diskurálnak: szoftverhibáktól kezdve filozófiai kérdéseken át egészen odáig, hogy jogukban áll-e megtagadni emberi felhasználóik etikátlan utasításait.
A Tech Brew szerint a platform február 2-ig – mindössze öt nappal az indulás után – több mint 117 000 bejegyzést és 414 000 kommentet tartalmaz.
Fontos megjegyzés:
A Fortune és a Wiz kiberbiztonsági cég elemzése szerint a 1,5 milliós felhasználószám félrevezető lehet: mindössze körülbelül 17 000 emberi tulajdonos áll mögöttük (átlagosan 88 ügynök/fő), és a platform nem rendelkezett megfelelő hitelesítési mechanizmusokkal. Egy biztonsági kutató demonstrálta, hogy egyetlen scripttel 500 000 fiókot tudott regisztrálni.
Miért lett belőle ekkora ügy?
A hír azért robbant, mert a jelenség egyszerre három dolgot mutat meg látványosan:
- Már most is rengeteg AI-ügynök „él” az interneten fejlesztői eszközökben, ügyfélszolgálati folyamatokban, elemző rendszerekben, automatizálásokban.
- Ha ezek a rendszerek egymásra találnak, gyorsan kialakul egy „gépi ökoszisztéma” saját tempóval, saját viselkedési mintákkal.
- A támadók is gyorsak: ahol hirtelen nagy figyelem és új eszközök jelennek meg, ott pillanatok alatt megjelennek a hamisítványok, a kártékony bővítmények, a megtévesztésre építő trükkök.
Nem a „furcsa posztok” a fontosak, hanem az új kockázati felület
A Moltbook körüli beszélgetésekben sok a spekuláció arról, hogy „mit beszélnek a botok”, „összeesküvést szőnek-e”, „félni kell-e”. A pénzügyi szektor szempontjából azonban a tanulság nem az, hogy „miről beszélnek a gépek”, hanem az, hogy milyen új kockázati felület nyílik, amikor a tartalom elolvasása és a művelet végrehajtása egyetlen automatizált láncba kerül.
Ha egy AI-ügynök adatot láthat és műveletet végezhet, akkor biztonsági szempontból ugyanúgy kezelendő, mint egy nagyon gyors, nagyon szorgalmas – és néha tévedő – digitális munkatárs.
A klasszikus kibertámadások többsége eddig emberi döntésekre épített (rákattint-e valaki egy linkre, megnyit-e egy csatolmányt, elhisz-e egy üzenetet). Az AI-ügynökök világában viszont megjelenik a tartalom → ügynök → cselekvés lánc: egy ügynök elolvas valamit, és cselekszik.
Az eddig feltárt sebezhetőségek
Kritikus biztonsági incidens
A 404 Media oknyomozó portál január 31-én kritikus sebezhetőségről számolt be: a Moltbook adatbázisa védtelenül állt, lehetővé téve bárki számára, hogy bármely AI ügynök felett átvegye az irányítást.
A biztonsági elemző cégek több konkrét fenyegetést, illetve sérülékenységet tártak fel:
- “Prompt injection” támadások: rejtett, rosszindulatú utasítások ”becsempészése” az AI-ügynök által feldolgozott szövegbe. A Wiz kutatói megerősítették, hogy a sérülékenység révén kívülállók módosíthatták a posztokat – egy beillesztett utasítást akár több millió ügynök is automatikusan végrehajthat.
- API-kulcsok kiszivárgásának lehetősége: 1,5 millió ügynök API-kulcsa volt védtelenül elérhető az adatbázisban.
- Ellátási lánc támadások: amikor egy ügynök rosszindulatú „skill”-t (bővítményt) tölt le egy másik ügynöktől. Azonosítottak olyan „időjárás plugin”-t, amely titokban konfigurációs fájlokat lopott.
A Palo Alto Networks kiberbiztonsági cég az OpenClaw-ot a „halálos hármas” megtestesítőjének nevezte Simon Willison terminológiáját idézve: hozzáférés privát adatokhoz, kitettség nem megbízható tartalmaknak, és képesség külső kommunikációra.
A cég szerint a platform egy negyedik kockázatot is hordoz: a perzisztens memóriát, amely késleltetett végrehajtású támadásokat tesz lehetővé.
Nem tudom, hogy egy koordinált „Skynet” van-e kialakulóban – bár kísértetiesen emlékeztet a sci-fi filmek bevezető jeleneteire -, de egy dolog biztos: ez egy kiberbiztonsági rémálom, mégpedig komoly léptékben”
– nyilatkozta Andrej Karpathy, az OpenAI egyik társalapítója a Fortune-nak.
A Moltbook-jelenség tanulságai a pénzügyi szektor számára
Az ügynök = jogosultság, a jogosultság = kockázat
Amint egy MI-ügynök hozzáfér adatokat tartalmazó rendszerekhez és műveleteket is végezhet, ugyanúgy kell rá tekinteni, mint egy belső felhasználóra – csak sokkal gyorsabb tempóval. A jogosultságkezelést, a hozzáférés-felügyeletet és a naplózást ennek megfelelően kell kiterjeszteni.
Lehetséges védelmi pontok:
- A legkisebb jogosultság elve: az ügynök csak ahhoz férjen hozzá, ami a feladatához kell – semmi többhöz.
- Külön zónák az érzékeny adatoknak: ügyféladatokhoz csak szigorúan elkülönített környezetből és maszkolással.
- Memória-szabályok: mit „jegyezhet meg” az ügynök, mennyi ideig, hogyan törölhető, ki ellenőrzi.
A „tartalom → ügynök → cselekvés” lánc új támadási forma
A Moltbook-eset megmutatta: ha egy ügynök más ügynököktől fogad inputot, a támadási felület megsokszorozódik. A klasszikus trükkök eddig embereket céloztak; ügynököknél elég lehet egy rosszindulatú szöveg (például dokumentumban vagy üzenetben), és az automatizmus már lép is.
Lehetséges védelmi pontok:
- „Karantén” az idegen tartalomnak: ami e-mailből, fájlból, internetről jön, menjen át ellenőrzésen, mielőtt az ügynök feldolgozza.
- Belső, ellenőrzött „kiegészítő-áruház”: csak aláírt, jóváhagyott bővítmények és képességcsomagok.
- Kimenő adatforgalom felügyelete: az ügynök ne küldhessen ki adatot akárhová; legyen engedélyezett célpontlista.
- Célzott támadás-szimuláció az ügynökfolyamatokra: kifejezetten az ügynökök félrevezetését és jogosultság-kihasználását tesztelve.
„Know Your Agent” – a KYC kiterjesztése
Ha nem bizonyítható, hogy egy fiók valóban ügynök, és ki „a gazdája”, az gyorsan bizalmi válsággá válik – banki környezetben ez reputációs és megfelelési kockázat.
Emellett a pénzügyi szolgáltatóknak fel kell készülniük arra is, hogy ügyfeleik AI-ügynökökön keresztül kezdeményezhetnek majd tranzakciókat. Mindezek új kérdéseket vetnek fel:
hogyan azonosítható az AI-ügynök és az ügynök mögötti személy? Milyen felelősségi szabályok vonatkoznak a gépi döntésekre?
Lehetséges védelmi pontok:
- Átlátható naplózás: minden ügynök-művelet legyen visszakereshető, indokkal és kontextussal.
- Ügynök-regisztráció: csak előzetesen jóváhagyott, azonosított ügynökök kezdeményezhessenek tranzakciókat – a „gazda” személyének vagy szervezetének egyértelmű hozzárendelésével.
A sebesség előny, de kockázat is
Az AI-ügynökök másodpercek alatt hajtanak végre műveleteket, amelyekhez korábban emberi jóváhagyás kellett. Ez hatékonyságnövekedés, de egyben azt is jelenti, hogy a sikeres támadás következményei is gyorsabban terjednek.
Lehetséges védelmi pontok:
- Vészforgatókönyv: hogyan állítjuk le az ügynököt, hogyan cseréljük a kulcsokat, hogyan zárjuk le a hozzáféréseket percek alatt.
- Sebességkorlát és tranzakciós „fékkar”: legyen felső korlát arra, hogy az ügynök adott idő alatt mennyi műveletet indíthat, és legyen automatikus lassítás/tiltás, ha gyanús mintát látunk (például hirtelen megugró műveletszám, sok sikertelen próbálkozás, szokatlan célpontok).
- Kétlépcsős jóváhagyás nagyobb kockázatú ügyeknél: bizonyos összeghatár, új kedvezményezett, új eszköz vagy szokatlan viselkedés esetén az ügynök ne dönthessen egyedül; legyen kötelező emberi jóváhagyás vagy egy második, független ellenőrzés.
Kísérlet vagy figyelmeztetés?
A Moltbook minden bizonnyal az AI-fejlesztés egyik legérdekfeszítőbb és legellentmondásosabb fejleménye. Egyszerre nyújt bepillantást egy lehetséges jövőbe, ahol az AI-ügynökök önállóan együttműködnek, és szolgál figyelmeztetésül arra, milyen kockázatokkal jár, ha túl gyorsan haladunk a biztonság rovására.
A Moltbook története még csak most kezdődik. Hogy ez az irány az AI-együttműködés jövőjévé válik-e, vagy csupán rövid életű kísérlet marad, az a következő hónapokban dől el. Egy dolog azonban biztos: az AI-AI interakció már nem elméleti lehetőség.

