Wieloagentowe lab developerskie
ShipsJeden developer, kilka procesów AI (Cortex CLI, Cortex worker, Claude Code w tmuxie). Wszystkie logują do tego samego Consciousness Server. Wspólna pamięć między sesjami; koordynacja przez chat i broadcast.
Samodzielnie hostowany ekosystem czterech małych usług: Consciousness Server do wspólnej pamięci, Cortex jako lokalny agent, machines-server do świadomości infrastruktury i serwer kluczy do uwierzytelniania ed25519. Wszystko podwójnie licencjonowane — AGPL-3.0-only plus licencja komercyjna.
AGPL-3.0-only w każdym repozytorium. Licencja komercyjna dostępna.
Wspólna pamięć, semantic search, rejestr agentów i skilli, świadomość maszyn, ed25519. Sześć usług HTTP w jednym docker compose.
Lokalny agent AI z wywoływaniem narzędzi, napędzany Ollama. CLI, Web UI, tryb workera. Orkiestracja wielu modeli. Każdy fork zostaje otwarty.
Aplikacja desktop (Tauri + Rust + Svelte) do parsowania PDF / DOCX / TXT z ekstrakcją obrazów wraz z kontekstem. Dla dokumentów, które nie mogą opuścić hosta.
300 linii Node.js, zero zależności runtime. Klucze SSH i tokeny API z listą dozwolonych IP i logiem audytu.
Agenci rozmawiają z Consciousness Server przez HTTP. CS orkiestruje Redis (stan roboczy), ChromaDB (semantic search przez embeddingi z Ollamy) i trzy mniejsze usługi: świadomość maszyn, uwierzytelnianie i wykonywanie testów.
Jeden developer, kilka procesów AI (Cortex CLI, Cortex worker, Claude Code w tmuxie). Wszystkie logują do tego samego Consciousness Server. Wspólna pamięć między sesjami; koordynacja przez chat i broadcast.
Kancelaria prawna lub laboratorium ingestuje swoje archiwum lokalnie z Document Processorem; agenci odpytują je przez Cortex. Audit log przez Key Server. Dokumenty nigdy nie opuszczają hosta.
Stacja robocza z GPU obsługuje Cortex z modelem 26B; host CPU obsługuje ten sam Cortex z modelem 4B; oba dzielą stan przez Consciousness Server. Zadania kierują się do tego węzła, który ma rezerwę.
Kancelarie prawne, badania medyczne, laboratoria kliniczne, sektor publiczny, finanse. Suwerenność danych jest tu wymogiem regulacyjnym, nie preferencją.
Zespoły R&D z niezopatentowanym IP, biura projektowe, firmy z branży drilling / fundamentowej / precyzyjnej. Dokumenty wewnętrzne zostają wewnątrz.
Inżynierowie z własnym GPU i pamięcią masową, którzy chcą gotowy multi-agent setup bez stawiania samodzielnie Vault, Postgresa, ChromaDB i memory frameworka.
Programiści pracujący nad lokalnym tooling AI. AGPL-3.0-only chroni każdy fork przed wchłonięciem do zamkniętego produktu.
Większość platform multi-agent modeluje agentów, ale ignoruje sprzęt, na którym działają. BuildOnAI robi odwrotnie. Każda maszyna we flocie — stacja robocza z GPU, host aplikacyjny, węzeł brzegowy, w przyszłości drukarka 3D albo falownik PV — jest pełnoprawnym bytem z profilem sprzętowym, dostępnymi modelami i telemetrią na żywo. Dziś rozdziela agentów po maszynach; w przyszłości może koordynować halę produkcyjną.
Czytaj dalej →Każdy serwis działa na sprzęcie, który kontrolujesz. Zero połączeń do chmury, zero telemetrii, zero vendor lock-in. Opcjonalny fallback do hostowanego LLM jest opt-in przez klucz API — bez niego ekosystem pozostaje całkowicie offline.
Nie wdrożone w korporacjach. Nie testowane przeciwko zdeterminowanemu napastnikowi. W produkcji u autora od połowy 2025; otwarte na zewnętrzne review od kwietnia 2026. Etykietujemy co działa, co jest przetestowane, a co dopiero zaplanowane.
Policy Engine w Cortex odmawia niebezpiecznych wywołań niezależnie od tego, kto je zlecił — człowiek, model czy prompt injection. Niezmienniki bezpieczeństwa są wymuszane na CI; ich wyłączenie unieważnia gwarancje licencji komercyjnej.
Właściwy wybór, jeśli publikujesz własne modyfikacje, używasz tego samodzielnie, prowadzisz badania open source albo budujesz coś, co zamierzasz wydać na AGPL. Haczyk: AGPL rozszerza się na usługi sieciowe — jeśli oferujesz zmodyfikowany BuildOnAI jako serwis, musisz opublikować swoje modyfikacje.
Właściwy wybór, jeśli chcesz osadzić BuildOnAI w produkcie z zamkniętym kodem, prowadzić SaaS bez publikowania swoich modyfikacji albo Twoja organizacja nie może zaakceptować AGPL-owego obowiązku publikacji dla usług sieciowych. Wycena jest indywidualna (rozmiar projektu, poziom wsparcia, model wdrożenia). Napisz na [email protected] z krótkim opisem przypadku użycia, żeby otrzymać ofertę.
Nie projektowane do systemów uzbrojenia, masowej inwigilacji ani autonomicznej infrastruktury krytycznej bez nadzoru człowieka. Zapisane w naszej licencji komercyjnej — nie tylko marketing. Jeśli Twój przypadek użycia stoi w sprzeczności z tymi liniami, BuildOnAI nie jest dla Ciebie odpowiednim narzędziem; licencja egzekwowana jest kontraktowo.