Kim jestem
AI Engineer specjalizujacy sie w budowaniu produkcyjnych systemow LLM. Od prototypu do produkcji — tworze systemy AI, ktore rozwiazuja realne problemy biznesowe z udokumentowanym ROI.
Moja misja
Wierze, ze AI powinno byc dostepne i praktyczne. Specjalizuje sie w przeksztalcaniu zaawansowanych modeli jezykowych w niezawodne systemy produkcyjne. Kazdy projekt podchodze z mysleniem inzynierskim — mierzalne wyniki, pelna obserwowalnosc i optymalizacja kosztow.
Moje podejscie
Nie buduje demo — buduje systemy gotowe na produkcje. To znaczy: automatyczne ewaluacje, guardrails na wejsciu i wyjsciu, monitoring w czasie rzeczywistym i architektura, ktora skaluje sie z biznesem. Kazdy system projektuje z mysia o utrzymaniu i kosztach.
Doswiadczenie
Gdzie pracowalem i co robilem
Dostarczanie projektow rozwojowych i operacyjnych o wartosci do 500k PLN.
- ▸Kierowanie zespolami 10+ osob na rynkach miedzynarodowych (region DACH)
- ▸Ekspansja biznesu na rynki azjatyckie i nawiazywanie partnerstw strategicznych
- ▸Redukcja kosztow operacyjnych i poprawa efektywnosci zespolu poprzez sledzenie KPI
Optymalizacja promptow i doradztwo w zakresie integracji AI dla klientow biznesowych. Redukcja kosztow API i poprawa jakosci odpowiedzi modeli.
- ▸Optymalizacja promptow dla GPT-4 i Claude
- ▸Wdrazanie guardrails i walidacji odpowiedzi
- ▸Szkolenia zespolow z prompt engineeringu
- ▸Audyt i optymalizacja istniejacych systemow AI
Edukacja & Certyfikaty
Ciagle sie rozwijam w obszarze AI
Umiejetnosci
Technologie i narzedzia, z ktorymi pracuje na co dzien
AI & LLM
Backend
Frontend
DevOps & MLOps
Bazy Danych
Projekty
Produkcyjne systemy AI rozwiazujace realne problemy
System Q&A z RAG
Hybrydowy system wyszukiwania laczacy semantyczne i slownikowe wyszukiwanie dla dokladnych odpowiedzi AI. Pelna obserwowalnosc z LangSmith i metryki w czasie rzeczywistym.
Framework ewaluacji LLM
Automatyczne pipeline'y ewaluacji modeli LLM — mierzenie dokladnosci, trafnosci i bezpieczenstwa. System testowania z 50+ przypadkami testowymi i 4-warstwowa ochrona.
Architektura LLM w produkcji
Kompletne systemy od ingestii dokumentow do monitoringu w czasie rzeczywistym. Asynchroniczne przetwarzanie z Redis cache i sub-sekundowe odpowiedzi.
Inteligentny interfejs czatu
Inteligentna warstwa cache'owania redukujaca koszty API przy zachowaniu sub-sekundowych odpowiedzi. RAG z wektorowym wyszukiwaniem i kontekstowa pamiecia rozmow.