Sztuczna inteligencja w firmach przestaje być eksperymentem – staje się elementem infrastruktury krytycznej. Jednak wraz z jej wdrażaniem pojawiają się pytania o bezpieczeństwo danych, izolację informacji oraz kontrolę nad modelami językowymi. Pojawia się też apetyt, by AI formułując odpowiedzi na zadane pytania korzystała z możliwie szerokiej bazy dokumentów firmowych, ale tym bardziej dostęp do zawartych w nich informacji musi podlegać kontroli.
RAGGY to prywatna, multitenantowa platforma RAG zaprojektowana dla organizacji, które chcą korzystać z AI bez kompromisów w zakresie bezpieczeństwa.
RAGGY to baza wektorowa on-premise dla firm, umożliwiająca lokalne przetwarzanie danych z wykorzystaniem dużych modeli językowych (LLM) oraz embeddingów. System działa w oparciu o architekturę kontenerową (Docker) i może być wdrażany w modelu single-node lub multi-node.
Platforma łączy:
RAGGY został zaprojektowany jako system multitenantowy. Oznacza to, że dane poszczególnych działów, jednostek organizacyjnych lub spółek są logicznie izolowane.
Każdy tenant posiada:
To rozwiązanie idealne dla dużych organizacji, gdzie bezpieczeństwo i separacja danych są kluczowe.
System generatywny bez monitorowania to ryzyko utraty kontroli nad AI. RAGGY oferuje pełną obserwowalność:
Dzięki temu IT ma realną kontrolę nad jakością i stabilnością systemu.
RAGGY składa się z kilkunastu wyspecjalizowanych kontenerów Docker (m.in frontend Next.js, backend FastAPI, PostgreSQL z bazą wektorową, Redis, workery, vLLM, silnik embeddingu oraz warstwa monitoringu).
System może być wdrożony:
Pozwala to skalować niezależnie:
W przeciwieństwie do rozwiązań chmurowych, RAGGY działa w całości lokalnie (on-premise lub private cloud).
To oznacza:
To administrator ustala z jakich modeli korzysta. System może działać w całości lokalnie, bez integracji z zewnętrznymi API.
Tak. Architektura multitenantowa umożliwia izolację danych pomiędzy działami i skalowanie infrastruktury.
Tak. RAGGY oferuje pełną obserwowalność pracy: od pytania użytkownika, przez selekcję danych z bazy, po sformułowanie odpowiedzi, a do tego metryki, monitoring GPU i dashboardy.
Single-node sprawdzi się w mniejszych instalacjach, w małych i średnich firmach, w PoC lub w pilotażu dużego rozwiazania. Multi-node wymagane jest w środowisku produkcyjnym z wysoką dostępnością.
Minimalnie serwer z GPU i 64 GB RAM dla PoC. Produkcyjnie rekomendowane są serwery z 128–256 GB RAM i wydajnymi kartami NVIDIA.