Zainstalowałem OpenClaw. Potem sprawdziłem, do czego ma dostęp.
Seria: Czyste Technologie dla Rodzin · Artykuł 6/6
OpenClaw to autonomiczny agent AI, który w lutym 2026 roku zdobył 135 tysięcy gwiazdek na GitHubie — i jednocześnie ujawnił ponad 135 tysięcy niezabezpieczonych instancji z danymi użytkowników. Ten artykuł wyjaśnia, czym agent AI różni się od zwykłej aplikacji, co udostępniasz instalując go na komputerze z danymi rodziny, dlaczego dane rodzinne wymagają innej ochrony niż dane osobiste, i jak w 3 prostych pytaniach ocenić bezpieczeństwo dowolnego narzędzia AI.
Sobota, 23:00. Laptop na kolanach.
Scrollujesz telefon. Na Reddicie ktoś wrzucił zrzut ekranu z nowego narzędzia AI — darmowe, open-source, 135 tysięcy gwiazdek na GitHubie w kilka tygodni. Kolega z pracy pisze na grupie: “musisz to spróbować”. Terminal pyta o uprawnienia. Klikasz Allow. Piwo w ręce, dziecko wreszcie zasnęło — może po trzecim “tato, wody”.
Nie myślisz o tym, że właśnie dałeś obcemu programowi dostęp do swojego komputera. Do plików. Do haseł zapisanych w przeglądarce. Do kluczy API, których używasz w pracy. Do historii rozmów.
Może czujesz napięcie w karku. A może nie — piwo jest zimne, terminal pisze “Ready”. Więc piszesz pierwszy prompt.
Brzmi znajomo?
Większość z nas tak miała z OpenClaw. Bo byliśmy ciekawi. I to jest w porządku — ciekawość to dobre źródło. Ale ciekawość i ostrożność mogą iść w parze.
Co właściwie się stało z OpenClaw?
OpenClaw (wcześniej znany jako ClawdBot) to autonomiczny agent AI — program, który nie tylko odpowiada na pytania, ale sam wykonuje zadania na Twoim komputerze. Otwiera pliki, wysyła wiadomości, instaluje rozszerzenia, łączy się z usługami zewnętrznymi.
To nie jest chatbot. To program z uprawnieniami do działania.
Oto co warto wiedzieć — w ciągu kilku tygodni od premiery:
- Audyt bezpieczeństwa wykazał 512 podatności, w tym osiem krytycznych (CVE-2026-25253, CVSS 8.8). To nie jest niezwykłe dla tak młodego projektu open-source, ale pokazuje, dlaczego warto wiedzieć, co instalujesz.
- Ponad 135 tysięcy instancji OpenClaw zostało wykrytych publicznie w internecie — dostępnych dla każdego, kto wiedział, gdzie szukać. Badacze uzyskali dostęp do kluczy API, tokenów Slacka i Telegrama, pełnych historii czatów użytkowników.
- W marketplace ClawHub 12% rozszerzeń okazało się złośliwych — ponad 230 skilli podszywało się pod legalne narzędzia, wykradając hasła z przeglądarki, portfele kryptowalut i dane z pęku kluczy macOS.
Logi zmian projektu ujawniają też łatki na luki pozwalające na zdalne uruchomienie kodu i dostęp do plików użytkownika (GitHub) — co potwierdza, że te ryzyka nie są teoretyczne.
To jest historia o tym, co się dzieje, gdy nowa technologia rośnie szybciej niż świadomość jej użytkowników.

Czy muszę teraz coś z tym zrobić?
Nie. Jeśli nie masz energii, żeby o tym myśleć — to OK. Zapisz ten artykuł. Wróć, gdy będziesz gotowy. Nie musisz nic zmieniać dziś wieczorem.
Czym różni się agent AI od zwykłej aplikacji?
Żeby zrozumieć, dlaczego OpenClaw wywołał taką dyskusję, warto wiedzieć, czym agent AI różni się od aplikacji, których używasz na co dzień. Stan na luty 2026 — to wciąż wczesne dni technologii agentów AI.
Zwykła aplikacja — np. kalendarz rodzinny — działa w zamkniętym środowisku. Widzisz, co robi. Ma ograniczone uprawnienia. Nie instaluje niczego sama. Nie wysyła wiadomości w Twoim imieniu.
Agent AI — to program, który dostaje od Ciebie szerokie uprawnienia i sam decyduje, jak je wykorzystać. Może czytać Twoje pliki, przeglądać emaile, łączyć się z zewnętrznymi usługami, wykonywać komendy w terminalu. Działać w tle, bez Twojego nadzoru.
Różnica? Zwykła aplikacja to jak asystent, który robi to, o co poprosisz. Agent AI to jak asystent, któremu dajesz klucze do domu i mówisz: “ogarniaj”.
I tu pojawia się pytanie: co dokładnie ogarnia?
Jakie dane udostępniasz, instalując agenta AI?
To zależy od konkretnego narzędzia i konfiguracji. Ale w przypadku OpenClaw — i wielu podobnych agentów — lista może obejmować:
- Pliki na dysku — dokumenty, zdjęcia, notatki, dane firmowe
- Hasła i klucze API — zapisane w przeglądarce, w pęku kluczy lub w plikach konfiguracyjnych
- Historię rozmów — emaile, czaty, wiadomości
- Tokeny do usług zewnętrznych — Slack, Google Workspace, Telegram, GitHub
- Dostęp do terminala — możliwość instalowania programów, uruchamiania skryptów, modyfikowania systemu
Złożone razem, te dane mogą tworzyć kompletny obraz: Twojej pracy, Twoich finansów, Twojego zdrowia, Twojej rodziny. Bardziej szczegółowy niż cokolwiek, co znajdziesz w jednym miejscu.
I tu pojawia się pytanie, o którym rzadko myślimy w momencie instalacji: czyje to dane?
Na laptopie w salonie — obok Twoich plików służbowych — są też zdjęcia dzieci, historia medyczna rodziny, dostęp do wspólnego konta bankowego, dane partnera czy partnerki. Kiedy klikasz “Allow”, decydujesz nie tylko za siebie.
To nie jest zarzut. Większość z nas nie myślała o tym w momencie instalacji — nie dlatego, że nas to nie obchodzi, ale dlatego, że mamy milion innych rzeczy na głowie. Jeśli chcesz, możesz użyć prostego testu:
Test trzech osób. Zanim zainstalujesz agenta AI na wspólnym komputerze, zapytaj siebie:
- Czy zgadzam się, żeby to narzędzie widziało moje dane?
- Czy zgadzam się, żeby widziało dane mojego partnera/partnerki?
- Czy zgadzam się, żeby widziało dane moich dzieci?
Nie ma złej odpowiedzi. Jeśli na wszystkie trzy odpowiedziałeś “tak” — to Twoja świadoma decyzja. Jeśli na którekolwiek “nie” — wiesz już, o czym warto porozmawiać.
Dlatego warto wiedzieć: kto jeszcze ma do tego dostęp?
Dlaczego ci, którzy testują pierwsi, bagatelizują ryzyko?
Jeśli instalujesz nowe narzędzia wcześniej niż inni — to nie jest problem. To znaczy, że jesteś ciekawy świata. Że lubisz testować. Że chcesz wiedzieć, co nadchodzi.
Ale jest wzorzec, który warto zauważyć. Krótko mówiąc: kiedy wszyscy wokół instalują, mało kto czyta uprawnienia. Gdy 135 tysięcy osób dało gwiazdkę na GitHubie — trudno zatrzymać się i zapytać: “czekaj, do czego to właściwie ma dostęp?”
To nie jest kwestia inteligencji. To kwestia kontekstu. Można być innowatorem i jednocześnie zadawać pytania.
Na webinarach o AI coraz częściej słychać argument: “I tak Google i wszyscy inni mają dostęp do tych danych, więc już się tym nie przejmuję.” I jest w tym ziarno prawdy — Google faktycznie ma dużo Twoich danych. Ale jest różnica, którą warto zobaczyć.
Google ma Twoje dane w zamkniętym ekosystemie: fragmentami, z izolacją między usługami, z dedykowanym zespołem bezpieczeństwa. Agent AI na Twoim laptopie widzi wszystko jednocześnie — pliki, hasła, terminal, historię rozmów. To nie kwestia “więcej danych”. To kwestia pełnego obrazu, który powstaje, gdy dane są w jednym miejscu.
Nawet twórca OpenClaw publicznie przyznał, że incydent bezpieczeństwa to kwestia czasu, nie prawdopodobieństwa. To nie jest straszenie — to jest rzadka uczciwość w branży, którą warto docenić.
Jest jeszcze jedna wersja tego argumentu: “I tak nie ma prywatności, przestałem się przejmować.” Może tak. W odniesieniu do Twoich danych. Ale czy masz prawo podjąć tę decyzję za sześciolatka, który nie może jeszcze o tym decydować? Dane medyczne dziecka zebrane dziś mogą być dostępne, gdy będzie dorosłym — i mogą mieć wpływ na ubezpieczenie czy zatrudnienie.
Prawie co trzeci z nas używa w pracy narzędzi AI, o których nawet szef nie wie (raport Cyberhaven, 2026). A Twój laptop w salonie ma i służbowe dane, i rodzinne — zdjęcia dzieci, historię medyczną, dostęp do konta bankowego.
Jak sprawdzić, czy agent AI jest bezpieczny?
Nie musisz rozumieć kryptografii ani czytać kodu źródłowego. Zacznij od trzech pytań. Zadaj je sobie przed instalacją dowolnego agenta AI — nie tylko OpenClaw. Nie musisz odpowiadać na wszystkie naraz. Zacznij od jednego.
1. Do czego agent ma dostęp? Dobry znak: jasna lista uprawnień w dokumentacji. Sygnał ostrzegawczy: “Daj pełny dostęp” bez wyjaśnienia.
2. Czy moje dane idą na serwer zewnętrzny? Dobry znak: działa lokalnie lub używa szyfrowania end-to-end (E2EE). Sygnał ostrzegawczy: brak informacji — albo gorzej, drobny druczek.
3. Czy agent może działać beze mnie? Dobry znak: wymaga potwierdzenia przed każdą akcją. Sygnał ostrzegawczy: wykonuje zadania w tle, bez pytania.
Jeśli na wszystkie trzy odpowiadasz “dobry znak” — narzędzie traktuje Twoje dane poważnie. Jeśli choćby jedno budzi wątpliwość — warto dopytać albo skonfigurować ostrożniej.
Pełna wersja: 7 pytań do agenta AI
Jeśli masz czas i energię, oto rozszerzona lista:
| # | Pytanie | Dobry znak | Sygnał ostrzegawczy |
|---|---|---|---|
| 1 | Czy wiem, do czego agent ma dostęp? | Jasna lista uprawnień w dokumentacji | ”Daj pełny dostęp” bez wyjaśnienia |
| 2 | Czy mogę ograniczyć uprawnienia? | Sandbox, granularne permisje, tryb read-only | Wszystko albo nic |
| 3 | Czy dane idą na serwer zewnętrzny? | Działa lokalnie lub używa E2EE | Brak informacji |
| 4 | Czy wiem, kto widzi moje dane? | Zero-knowledge, E2EE | ”Nasi pracownicy mogą przeglądać…“ |
| 5 | Czy agent może działać beze mnie? | Wymaga potwierdzenia przed każdą akcją | Auto-execution w tle |
| 6 | Czy kontroluję, co agent wysyła? | Podgląd i zatwierdzenie przed wysłaniem | Automatyczne wysyłanie w moim imieniu |
| 7 | Czy mogę usunąć wszystko? | Eksport danych + usunięcie konta jednym kliknięciem | Brak polityki retencji |
Twój wynik: 6-7 dobrych znaków = spokojnie. 3-5 = warto dopytać. 0-2 = zastanów się, czy potrzebujesz tego narzędzia na komputerze z danymi rodziny.
Jak aplikacje privacy-first chronią dane rodziny?
Nie wszystkie narzędzia AI podchodzą do danych tak samo. Warto zobaczyć różnicę:
| Agent bez ograniczeń (np. OpenClaw) | Typowy SaaS z AI | Privacy-first (np. Signal, ParentOS) | |
|---|---|---|---|
| Dostęp do danych | Pełny — pliki, terminal, sieć | Ograniczony do swojej usługi | Minimalny — tylko to, co niezbędne |
| Gdzie są dane? | Na Twoim komputerze + serwery zewnętrzne | Serwer firmy (czytelne) | E2EE — serwer nie widzi treści |
| Kto ma klucz? | Nikt / wszyscy | Firma | Tylko Ty |
| Kontrola użytkownika | Niska — agent decyduje sam | Średnia — ustawienia | Wysoka — granularne permisje |
| Co jeśli wyciek? | Wszystko dostępne | Dane firmy czytelne | Zaszyfrowane — bezużyteczne bez klucza |
| Czyje dane widzi? | Wszystkich użytkowników komputera | Tylko użytkownika usługi | Tylko właściciela modułu (E2EE per moduł) |
| Co agent dostaje? | Surowe dane — pliki, przelewy, zdjęcia | Dane w ramach usługi | Tylko odpowiedź (np. “budżet: OK”) |
Signal robi to z wiadomościami. Proton robi to z emailem. ParentOS, adaptacyjny system operacyjny dla rodzin, robi to z danymi rodzinnymi — zdrowie, finanse, harmonogram — szyfrując je per moduł, z architekturą zero-knowledge. Serwer przechowuje dane, ale nie może ich przeczytać. Nawet zespół ParentOS nie ma do nich dostępu.
Transparentnie: ParentOS jest w fazie beta i też ma rzeczy do poprawy. Ale jego architektura zero-knowledge oznacza, że nawet w przypadku wycieku dane są zaszyfrowane — bezużyteczne bez klucza, który ma tylko Twoja rodzina.
To nie jest jedyny sposób. Ale to sposób, który respektuje zasadę: Twoje dane rodzinne należą do Twojej rodziny.
Jeden mikro-krok na ten tydzień
W tym tygodniu zrób jedną rzecz: otwórz ustawienia jednego narzędzia AI, z którego korzystasz. Jednego. Sprawdź, do czego ma dostęp. Tylko tyle.
Nie musisz niczego odinstalowywać. Nie musisz nic zmieniać. Samo zobaczenie to już dużo.
Jeśli chcesz, możesz też porozmawiać o tym z partnerem. Nie potrzebujesz przygotowania. Wystarczy jedno zdanie:
- “Hej, wiesz do czego ma dostęp ta apka AI, którą zainstalowałem?”
- “Sprawdziłem uprawnienia jednego narzędzia na laptopie. Ciekawe wyniki.”
- “Przeczytałem artykuł o bezpieczeństwie agentów AI. Chcesz zerknąć?”
Albo nie. Sam fakt, że o tym myślisz, to już dużo.
Powiązane artykuły z tej serii
Jeśli ten artykuł rezonuje z Tobą, przeczytaj też:
- Artykuł 1: Jeśli nie płacisz, to Ty jesteś produktem. A co z Twoim dzieckiem? — skąd biorą się pieniądze w “darmowych” aplikacjach
- Artykuł 3: Szyfrowanie end-to-end dla rodzin — co to znaczy, że nikt nie czyta Twoich danych
- Artykuł 4: Slow Tech: Kiedy technologia spowalnia zamiast przyśpieszać — inny rodzaj technologii jest możliwy
Najczęściej zadawane pytania
Czy OpenClaw jest bezpieczny?
Stan na luty 2026: audyt bezpieczeństwa wykazał 512 podatności, w tym osiem krytycznych (CVE-2026-25253, CVSS 8.8). Ponad 135 tysięcy instancji było publicznie dostępnych w internecie. To nie oznacza, że OpenClaw jest z definicji zły — to projekt open-source w bardzo wczesnej fazie. Ale oznacza, że wymaga świadomej konfiguracji i nie powinien działać na komputerze z wrażliwymi danymi rodzinnymi bez sandboxa.
Czy powinienem odinstalować OpenClaw?
Nie musimy podejmować tej decyzji za Ciebie. Sprawdź uprawnienia, które ma na Twoim komputerze. Użyj naszej checklisty 7 pytań. Jeśli wynik jest niski — rozważ uruchomienie go w izolowanym środowisku (osobny profil, maszyna wirtualna) lub na komputerze bez wrażliwych danych. Pamiętaj też, że bezpieczna konfiguracja (sandbox, izolacja sieciowa) wymaga zaawansowanej wiedzy technicznej.
Czym agent AI różni się od ChatGPT?
ChatGPT to chatbot — odpowiada na pytania w zamkniętym oknie. Agent AI (jak OpenClaw) to program z uprawnieniami do działania na Twoim komputerze: czyta pliki, wysyła wiadomości, instaluje rozszerzenia, łączy się z usługami zewnętrznymi. Różnica to jak między rozmową telefoniczną a daniem komuś kluczy do domu.
Czy założenie osobnego konta (np. nowego Gmaila) chroni dane rodziny?
To dobry instynkt — próba izolacji. Ale agent AI nie działa w kontekście konta emailowego. Działa w kontekście Twojego systemu operacyjnego: widzi pliki na dysku, hasła w przeglądarce, tokeny w konfiguracji — niezależnie od tego, na jakie konto jesteś zalogowany. Osobny Gmail nie zmienia tego, co agent widzi na Twoim komputerze. Jeśli chcesz prawdziwą izolację, rozważ: (1) osobny profil użytkownika w systemie, (2) maszynę wirtualną, (3) dedykowany komputer bez danych rodzinnych. Każda z tych opcji to więcej pracy — ale też więcej kontroli.
Jak chronić dane rodzinne przed agentami AI?
Cztery podstawowe zasady: (1) sprawdź uprawnienia każdego narzędzia AI na swoim komputerze, (2) nie instaluj agentów na urządzeniu z danymi zdrowotnymi i finansowymi rodziny bez sandboxa, (3) wybieraj narzędzia z szyfrowaniem end-to-end (E2EE) i architekturą zero-knowledge dla wrażliwych danych, (4) pamiętaj, że dane medyczne i finansowe dziecka zebrane dziś mogą istnieć w sieci przez dziesiątki lat.
Seria “Czyste Technologie dla Rodzin”:
- Artykuł 1: Jeśli nie płacisz, to Ty jesteś produktem. A co z Twoim dzieckiem?
- Artykuł 2: Organiczne oprogramowanie: Jak czytać etykietę aplikacji
- Artykuł 3: Szyfrowanie end-to-end dla rodzin: Przewodnik bez technicznego żargonu
- Artykuł 4: Slow Tech: Kiedy technologia spowalnia zamiast przyśpieszać
- Artykuł 5: Co wie o Twoim dziecku jego aplikacja do nauki?
- Artykuł 6: Zainstalowałem OpenClaw. Potem sprawdziłem, do czego ma dostęp. (ten artykuł)
- Artykuł 7: Kto widzi dane Twojej rodziny? 7 warstw, o których nie musisz myśleć
Źródła:
- BitSight, “OpenClaw Security: Risks of Exposed AI Agents” (2026)
- Kaspersky, “New OpenClaw AI agent found unsafe for use” (2026)
- Fortune, “Why OpenClaw has security experts on edge” (2026)
- Cisco, “Personal AI Agents like OpenClaw Are a Security Nightmare” (2026)
- Wiz, “Hacking Moltbook: AI Social Network Reveals 1.5M API Keys” (2026)
- Cyberhaven Labs, “AI Adoption & Risk Report 2026”
- OpenClaw, oficjalne repozytorium GitHub
Spokojne rodziny zaczynają od świadomości.