Přeskočit na obsah
Codedock
SlužbyJak pracujemeReferenceInsightsKariéraKontakt
Zpět na všechny články
Enterprise integrace

·

8 min čtení

·

Napsal Tomáš Mikeš

Microsoft Fabric po roce v enterprise: co funguje a co ne

Rok s Microsoft Fabric na projektu Magistra DWH pro síť 200+ lékáren. Kde Fabric skutečně přidává hodnotu proti Databricks/Snowflake, kde si stěžujeme, a jestli byste se do toho pouštěli dnes.

Microsoft FabricAzureData warehouseEnterprise

Když Microsoft uvedl Fabric v listopadu 2023, sliboval sjednocenou data platformu — OneLake jako single storage, Lakehouse + Data Warehouse + Power BI + Data Factory v jednom produktu. Pro klienty uvažující o data platformě to byla zásadní nabídka: místo stack Databricks + Snowflake + Fivetran + Power BI mít jedno ekosystémové místo.

Pro Magistru (síť 200+ lékáren, e-shop, externí systémy) jsme Fabric nasadili na 8 měsíců. Tady je honest review — co sedí a co ne.

Co funguje dobře

OneLake a data mesh už od dne jedna

OneLake je nejlepší funkce Fabricu. Žádné duplicitní storage pro Lakehouse vs. Warehouse vs. Power BI — data jsou jednou, na jednom místě (Delta Lake format), access přes shortcuty. Pro enterprise s multiple teams tohle eliminuje celou kategorii pain pointů.

Příklad: Magistra má lékárenský tým, e-shop tým, finance. Každý potřebuje svoje vlastní výpočty nad stejnými source daty. Na Databricks bys měl 3 workspace, 3 storage accounts, a nějakým způsobem syncoval. Na Fabricu máš jeden OneLake, tři workspaces, shortcuty mezi nimi. Data se nekopírují.

Power BI integrace bez tření

Když data landnou v OneLake v Delta formátu, Power BI umí DirectLake mode — čte přímo Delta soubory bez ETL do tabular modelu. Refresh je okamžitý, protože není co refresh-ovat. Pro enterprise dashboardy nad miliardami řádků to snižuje infrastrukturu o 40-50 % proti klasickému import/refresh modelu.

Data Factory (Fabric verze) je rozumná

Fabric má vlastní verzi Data Factory (separátní od Azure Data Factory — ano, má to zmatek). Je to orchestrační engine s drag-and-drop a SQL/PySpark notebooky. Pro 80 % ETL scénářů stačí. Pro komplexní transformace jdou Spark notebooky.

Licenční model jednoduchý (teoreticky)

Kupuješ capacity (F2, F4, F8...), ne per-user, per-pipeline, per-warehouse. Capacity se sdílí napříč workloads. Pro org s clear budget je to mnohem jednodušší než Databricks DBU + Snowflake credits + Power BI per-user.

Co NEfunguje dobře

Capacity je underspecified — a drahá

„Capacity se sdílí napříč workloads“ zní skvěle, dokud nepotřebuješ předpovědět, jakou F-úroveň kupit. F4 (~1 500 €/měs) je minimum pro cokoli smysluplného. F8 (~3 000 €/měs) je realistické minimum pro produkční DWH s daily refreshes. F16+ pro enterprise scale.

Problém: capacity throttling nastane nepredictable. DAX dotaz v Power BI saje stejné capacity units jako Spark job — jeden „kolega od finance“ s pomalým dotazem může zhodit celý platform. Monitoring CU využití je kritické, ale dashboardy na to jsou primitivní.

CI/CD — stále problém

Fabric workspaces nemají první-class Git integrace jako Databricks repos. Máte Fabric deployment pipelines (Dev → Test → Prod), ale:

  • Notebooky jsou export/import, ne Git-first
  • Parameter rewriting mezi prostředími je manuální
  • PR review Power BI reports? Nefunguje, review musíš dělat přes live workspace

V Databricks repos máš full Git workflow. Fabric to v 2026 ještě nemá. Pokud jsi tým zvyklý na software engineering praxe (code review, branch protection, PR checks), tohle tě bude trápit.

Product maturity — furt v pohybu

Microsoft pushuje nové features každý měsíc. To zní dobře, ale znamená to taky:

  • Dokumentace 6 měsíců stará může odkazovat na neexistující UI
  • Best practices z blogpostů neplatí, protože feature se změnila
  • GA (general availability) status se často opožďuje. Něco, co používáš, je pořád preview — znamená no SLA, potenciálně breaking changes

Databricks a Snowflake jsou dospělejší produkty. Fabric má svoji teen years — růst velký, ale ne vše sedí.

SQL endpoint performance pod oček

Fabric Warehouse (SQL endpoint) má stále latenci a throughput pod Databricks SQL nebo Snowflake. Pro ad-hoc analytical queries (prompty typu „vytáhni mi obrat po kategorii za poslední měsíc“) to je OK. Pro high-concurrency BI workloads s stovkami parallel users… neexistuje ještě dost benchmarků.

Kde Fabric vítězí proti Databricks/Snowflake

  • Microsoft-shop klient. Pokud už má Entra ID, Azure, Power BI, M365 — Fabric sedí do ekosystému. Procurement je jednoduchý.
  • Team without deep data engineering skills. Fabric je approachable pro BI analytiky. Databricks vyžaduje data-engineer orientation.
  • Budget-conscious startups/mid-market. F4 start na ~1 500 €/měs je levnější než produkční Databricks + Snowflake.
  • Power BI first-class. Pokud už máš investici v Power BI reportech, Fabric je kontinuita, ne rebuild.

Kde by ses měl vyhnout

  • Tým vyžaduje plný Git-first workflow. Databricks repos lepší.
  • Extrémní query performance requirements. Snowflake zůstává benchmark.
  • Multi-cloud. Fabric je Azure-only. Pokud musíš běžet na AWS/GCP taky, ne.
  • Heavy real-time streaming. Fabric real-time analytics existuje, ale Databricks Structured Streaming je zralejší.

Co jsme na Magistře naučili

Po 8 měsících provozu:

  • F8 capacity dostačuje pro 200+ lékárenský DWH s ~4 TB dat a daily refreshes
  • Throttling issues 2× za 8 měsíců, oba jsme vyřešili přeplánováním daily runů do non-peak hours
  • Data Factory pipelines stable, ale CI/CD je stále tření (aktuálně deployujeme přes PowerShell scripty)
  • Power BI DirectLake znamená, že koncové uživatelé vidí čerstvá data do 15 minut po refreshes — to by na Databricks + Power BI import módu bylo 1-2 hodiny
  • Celkové náklady ~42 % pod alternativou Databricks + Snowflake + Fivetran (které jsme originálně quotovali)

Doporučení

Pokud jsi v Microsoft stacku, začínáš data platformu a tvoje team je více BI-oriented než data-engineering — Fabric je legitimní volba dnes. Dříve (v 2024) bych řekl počkej. V roce 2026 už existují dost case studies a product maturity je OK.

Pokud jsi na jiném stacku nebo potřebuješ top-tier performance nebo full Git workflow — zůstaň u Databricks + Snowflake. Není to pomalejší rozhodnutí, je to jiný trade-off.

Řešíš něco podobného?

Domluvme si 30min technický call. Bez obchodních procesů — přímá architekturní zpětná vazba.

Vybrat termín

Architektura, cloud a integrace pro komplexní systémy. Senior architekt na každém projektu.

Navigace

SlužbyJak pracujemeReferenceInsightsKariéraKontaktSrovnání s agenturou

Služby

VývojCloudDevOpsAI & DataKonzultaceŘízení

Kontakt

CodeDock s.r.o.

Zlenická 863/9, 104 00 Praha 22

Česká republika

info@codedock.com

IČO: 14292769

DIČ: CZ14292769


© 2026 Codedock

KontaktOchrana osobních údajů
Domluvit call