·
8 min čtení
·
Napsal Tomáš Mikeš
Microsoft Fabric po roce v enterprise: co funguje a co ne
Rok s Microsoft Fabric na projektu Magistra DWH pro síť 200+ lékáren. Kde Fabric skutečně přidává hodnotu proti Databricks/Snowflake, kde si stěžujeme, a jestli byste se do toho pouštěli dnes.
Když Microsoft uvedl Fabric v listopadu 2023, sliboval sjednocenou data platformu — OneLake jako single storage, Lakehouse + Data Warehouse + Power BI + Data Factory v jednom produktu. Pro klienty uvažující o data platformě to byla zásadní nabídka: místo stack Databricks + Snowflake + Fivetran + Power BI mít jedno ekosystémové místo.
Pro Magistru (síť 200+ lékáren, e-shop, externí systémy) jsme Fabric nasadili na 8 měsíců. Tady je honest review — co sedí a co ne.
Co funguje dobře
OneLake a data mesh už od dne jedna
OneLake je nejlepší funkce Fabricu. Žádné duplicitní storage pro Lakehouse vs. Warehouse vs. Power BI — data jsou jednou, na jednom místě (Delta Lake format), access přes shortcuty. Pro enterprise s multiple teams tohle eliminuje celou kategorii pain pointů.
Příklad: Magistra má lékárenský tým, e-shop tým, finance. Každý potřebuje svoje vlastní výpočty nad stejnými source daty. Na Databricks bys měl 3 workspace, 3 storage accounts, a nějakým způsobem syncoval. Na Fabricu máš jeden OneLake, tři workspaces, shortcuty mezi nimi. Data se nekopírují.
Power BI integrace bez tření
Když data landnou v OneLake v Delta formátu, Power BI umí DirectLake mode — čte přímo Delta soubory bez ETL do tabular modelu. Refresh je okamžitý, protože není co refresh-ovat. Pro enterprise dashboardy nad miliardami řádků to snižuje infrastrukturu o 40-50 % proti klasickému import/refresh modelu.
Data Factory (Fabric verze) je rozumná
Fabric má vlastní verzi Data Factory (separátní od Azure Data Factory — ano, má to zmatek). Je to orchestrační engine s drag-and-drop a SQL/PySpark notebooky. Pro 80 % ETL scénářů stačí. Pro komplexní transformace jdou Spark notebooky.
Licenční model jednoduchý (teoreticky)
Kupuješ capacity (F2, F4, F8...), ne per-user, per-pipeline, per-warehouse. Capacity se sdílí napříč workloads. Pro org s clear budget je to mnohem jednodušší než Databricks DBU + Snowflake credits + Power BI per-user.
Co NEfunguje dobře
Capacity je underspecified — a drahá
„Capacity se sdílí napříč workloads“ zní skvěle, dokud nepotřebuješ předpovědět, jakou F-úroveň kupit. F4 (~1 500 €/měs) je minimum pro cokoli smysluplného. F8 (~3 000 €/měs) je realistické minimum pro produkční DWH s daily refreshes. F16+ pro enterprise scale.
Problém: capacity throttling nastane nepredictable. DAX dotaz v Power BI saje stejné capacity units jako Spark job — jeden „kolega od finance“ s pomalým dotazem může zhodit celý platform. Monitoring CU využití je kritické, ale dashboardy na to jsou primitivní.
CI/CD — stále problém
Fabric workspaces nemají první-class Git integrace jako Databricks repos. Máte Fabric deployment pipelines (Dev → Test → Prod), ale:
- Notebooky jsou export/import, ne Git-first
- Parameter rewriting mezi prostředími je manuální
- PR review Power BI reports? Nefunguje, review musíš dělat přes live workspace
V Databricks repos máš full Git workflow. Fabric to v 2026 ještě nemá. Pokud jsi tým zvyklý na software engineering praxe (code review, branch protection, PR checks), tohle tě bude trápit.
Product maturity — furt v pohybu
Microsoft pushuje nové features každý měsíc. To zní dobře, ale znamená to taky:
- Dokumentace 6 měsíců stará může odkazovat na neexistující UI
- Best practices z blogpostů neplatí, protože feature se změnila
- GA (general availability) status se často opožďuje. Něco, co používáš, je pořád preview — znamená no SLA, potenciálně breaking changes
Databricks a Snowflake jsou dospělejší produkty. Fabric má svoji teen years — růst velký, ale ne vše sedí.
SQL endpoint performance pod oček
Fabric Warehouse (SQL endpoint) má stále latenci a throughput pod Databricks SQL nebo Snowflake. Pro ad-hoc analytical queries (prompty typu „vytáhni mi obrat po kategorii za poslední měsíc“) to je OK. Pro high-concurrency BI workloads s stovkami parallel users… neexistuje ještě dost benchmarků.
Kde Fabric vítězí proti Databricks/Snowflake
- Microsoft-shop klient. Pokud už má Entra ID, Azure, Power BI, M365 — Fabric sedí do ekosystému. Procurement je jednoduchý.
- Team without deep data engineering skills. Fabric je approachable pro BI analytiky. Databricks vyžaduje data-engineer orientation.
- Budget-conscious startups/mid-market. F4 start na ~1 500 €/měs je levnější než produkční Databricks + Snowflake.
- Power BI first-class. Pokud už máš investici v Power BI reportech, Fabric je kontinuita, ne rebuild.
Kde by ses měl vyhnout
- Tým vyžaduje plný Git-first workflow. Databricks repos lepší.
- Extrémní query performance requirements. Snowflake zůstává benchmark.
- Multi-cloud. Fabric je Azure-only. Pokud musíš běžet na AWS/GCP taky, ne.
- Heavy real-time streaming. Fabric real-time analytics existuje, ale Databricks Structured Streaming je zralejší.
Co jsme na Magistře naučili
Po 8 měsících provozu:
- F8 capacity dostačuje pro 200+ lékárenský DWH s ~4 TB dat a daily refreshes
- Throttling issues 2× za 8 měsíců, oba jsme vyřešili přeplánováním daily runů do non-peak hours
- Data Factory pipelines stable, ale CI/CD je stále tření (aktuálně deployujeme přes PowerShell scripty)
- Power BI DirectLake znamená, že koncové uživatelé vidí čerstvá data do 15 minut po refreshes — to by na Databricks + Power BI import módu bylo 1-2 hodiny
- Celkové náklady ~42 % pod alternativou Databricks + Snowflake + Fivetran (které jsme originálně quotovali)
Doporučení
Pokud jsi v Microsoft stacku, začínáš data platformu a tvoje team je více BI-oriented než data-engineering — Fabric je legitimní volba dnes. Dříve (v 2024) bych řekl počkej. V roce 2026 už existují dost case studies a product maturity je OK.
Pokud jsi na jiném stacku nebo potřebuješ top-tier performance nebo full Git workflow — zůstaň u Databricks + Snowflake. Není to pomalejší rozhodnutí, je to jiný trade-off.
Řešíš něco podobného?
Domluvme si 30min technický call. Bez obchodních procesů — přímá architekturní zpětná vazba.