AI agenti jsou momentálně nejžhavější téma v technologickém světě. Každý chce automatizovat reporting, nechat AI hlídat anomálie v datech nebo mít asistenta, kterého se můžete zeptat na výkon e-shopu přirozenou češtinou. Problém je, že většina e-shopů na tohle ještě není připravená — ne proto, že by AI nebyla dostupná, ale proto, že nemají data ve správné formě. Garbage in, garbage out. AI agent, který dostane nestrukturovaná, nekonzistentní data z pěti různých zdrojů, vám neporadí nic užitečného.
BigQuery jako centrální datový sklad je právě ten základ, který AI agentům umožní fungovat. A výstavba tohoto základu je práce, která se vyplatí dvakrát — jednou pro stávající reporting a analytiku, podruhé jako vstupní brána pro jakoukoliv AI vrstvu, kterou přidáte v budoucnu.
Proč AI agenti potřebují čistá data v BigQuery
Představte si, že chcete AI agenta, který každé ráno pošle do Slacku shrnutí výkonu e-shopu za předchozí den. Tržby, konverzní poměr, nejprodávanější produkty, porovnání s minulým týdnem. Zní jednoduše. Ale kde agent ta data vezme?
Pokud jsou tržby v Shoptetu, konverze v GA4, náklady na kampaně v Google Ads a Meta Ads, a skladové zásoby v Pohoda, agent musí v reálném čase volat čtyři různá API, z nichž každé vrací data v jiném formátu, s jinou definicí „konverze" a jiným časovým pásmem. Výsledek bude nejistý, pomalý a těžko laditelný.
BigQuery tento problém řeší tím, že všechna data jsou na jednom místě, transformovaná do konzistentního formátu, s jasnými definicemi metrik. Agent se neptá čtyř systémů — ptá se jednoho SQL dotazu. A SQL je jazyk, který LLM modely (Claude, GPT-4, Gemini) velmi dobře ovládají.
Architektura: jak to funguje dohromady
Typická architektura pro e-shop s AI agenty vypadá takto:
- Datové zdroje: GA4, Google Ads, Meta Ads, Shoptet/Shopify API, CRM, Sklik, Heuréka — data se automaticky exportují nebo stahují přes ETL pipeline.
- BigQuery (datový sklad): surová data se transformují přes Dataform nebo dbt do čistých, pojmenovaných tabulek —
fct_orders,fct_sessions,dim_products,fct_ad_spend. - AI agent vrstva: LLM model (nejčastěji přes Google Vertex AI nebo přímo Claude/GPT API) dostane přístup k BigQuery přes SQL rozhraní. Uživatel se ptá přirozeným jazykem, agent přeloží otázku na SQL, spustí ho a výsledek interpretuje.
- Výstupy: Slack notifikace, e-mailové reporty, dashboard alerting, nebo interaktivní chatbot v interním nástroji.
4 konkrétní use cases pro e-commerce
1. Denní reporting agent — konec ručních reportů
Agent každé ráno v 7:00 spustí sadu SQL dotazů nad BigQuery, shrne výsledky a pošle strukturovanou zprávu do Slacku nebo na email. Tržby za včerejšek, porovnání s průměrem posledních 4 týdnů, konverzní poměr, průměrná hodnota objednávky. Pokud je něco výrazně mimo průměr, agent to označí jako anomálii a přidá možné vysvětlení (víkend, svátky, pokles v konkrétní kampani).
Čas ušetřený: typicky 30–60 minut denně pro analytika nebo marketingového manažera, který tato čísla jinak sbírá ručně.
2. Anomaly detection — agent jako hlídač
Agent průběžně monitoruje klíčové metriky v BigQuery a upozorní, když se něco výrazně odchýlí od normy. Propad konverzního poměru o více než 20 % oproti předchozím 7 dnům? Notifikace do Slacku. Nárůst ceny za konverzi v Google Ads o 40 %? Alert s linkem na detail kampaně. Vyprodání top produktu bez naplánované náhrady? Upozornění pro nákupčího.
Bez BigQuery byste tyto anomálie zjistili buď náhodou, nebo až po dnech. S agentem to víte do hodiny.
3. NL2SQL — ptáte se, data odpovídají
Tohle je nejefektnější use case. Místo abyste čekali na analytika nebo sami šli do GA4, jednoduše napíšete do chatu: „Jaké byly tržby z Heuréky za posledních 30 dní v porovnání s Meta Ads, a jaký byl ROAS každého kanálu?" Agent otázku přeloží na SQL dotaz, spustí ho nad BigQuery a výsledek vrátí v přehledné tabulce s komentářem.
Předpokladem je dobrý datový model v BigQuery — konzistentní názvy tabulek, zdokumentované metriky, jasné definice. To je práce, která se dělá jednou a pak funguje pro všechny dotazy.
4. Demand forecasting — kolik objednat na sezonu
BigQuery ML (vestavěné ML funkce přímo v BigQuery) umožňuje trénovat forecasting modely přímo nad historickými daty prodejů. Bez nutnosti exportovat data do Pythonu nebo samostatného ML frameworku. Agent pak může automaticky generovat predikce prodeje na příštích 30 dní pro každý produkt — a tyto predikce může rovnou porovnat s aktuálními zásobami a identifikovat potenciální výpadky.
Jak výstavba vypadá v praxi
Práce probíhá ve dvou fázích. První fáze je výstavba datového skladu — napojení zdrojů, transformace dat, definice metrik. Tato fáze trvá typicky 4–8 týdnů a je cenná sama o sobě, i bez AI agentů. Vznikne vám jeden konzistentní zdroj pravdy pro celý e-shop.
Druhá fáze je napojení AI vrstvy — integrace LLM modelu s BigQuery přes SQL, nastavení agentů pro konkrétní use cases, testování a ladění promptů. Tato fáze trvá 1–3 týdny v závislosti na složitosti use cases. Výsledkem jsou agenti, kteří běží autonomně a vy dostáváte informace, aniž byste museli cokoliv ručně stahovat nebo sestavovat.
Klíčový poznatek: Investice do BigQuery datového skladu se vyplatí dvojnásobně. Primárně pro stávající reporting a analytiku. Sekundárně jako datový základ pro AI — bez tohoto základu by implementace AI agentů trvala 3–5× déle a výsledky by byly nespolehlivé.
Co od toho realisticky čekat
AI agenti nad BigQuery nejsou magické řešení, které nahradí analytika nebo marketingového manažera. Jsou to nástroje, které šetří čas na rutinních úkolech — sběru dat, sestavování reportů, hlídání metrik — a uvolňují kapacitu na práci, kde je lidský úsudek nenahraditelný: interpretace, strategie, experimentování.
Realistické výsledky po implementaci: reporting, který dříve trval 45 minut, se zkrátí na 0 (agent to udělá za vás). Anomálie, které jste zjistili po 2 dnech, budete vědět do hodiny. Odpovědi na ad-hoc datové otázky, na které jste čekali den na analytika, dostanete za minutu.
Závěr
E-shopy, které dnes investují do solidního datového základu v BigQuery, si otevírají cestu k AI nástrojům, které budou v příštích 2–3 letech standardem. Výstavba datového skladu není IT projekt bez okamžitého přínosu — je to investice, která se vyplácí od prvního dne v podobě lepšího reportingu a lepší viditelnosti do dat, a v horizontu 6–12 měsíců jako základ pro AI vrstvu, která celý provoz zefektivní.