Patrick Zandl's Blog: Marigold.cz, page 9

April 15, 2025

Claude umí prohrabat váš Google kalendář i poštu, ChatGPT má nový model 4.1 a další novinky z AI

OpenAI vydalo nový model GPT-4.1, čímž zvyšuje zmatek, hlavně proto, že model byl ohlášen, ale dostupný je jen přes API, ne přes webové rozhraní nebo aplikaci. Má být náhradou modelu 4o, je levnější, rychlejší, přesnější, lepší. A má tři velikosti, které se liší cenou a samozřejmě velikostí natrénovaných dat. Krom standardního modelu také mini a nano. Kromě toho vydali novou prompting guide, návod na to, jak správně promptovat model 4.1 - vyplatí se to přečíst, než se pustíte do vážného ladění modelu 4.1 přes API. A tady je rychlé porování modelů. Do webového rozhraní se mají dostat brzy.

[image error]

Tady je překlad obrázku do češtiny ve formě tabulky:

GPT-4.1 4.1 mini 4.1 nano Vlajkový model GPT pro komplexní úlohy Vyvážený pro inteligenci, rychlost a cenu Nejrychlejší, nejefektivnější GPT 4.1 model z hlediska nákladů Inteligence: ●●●● Inteligence: ●●● Inteligence: ●● Rychlost: ⚡⚡⚡ Rychlost: ⚡⚡⚡⚡ Rychlost: ⚡⚡⚡⚡⚡ Vstup: text - obraz Vstup: text - obraz Vstup: text - obraz Výstup: text Výstup: text Výstup: text Tokeny uvažování: ne Tokeny uvažování: ne Tokeny uvažování: ne CENY CENY CENY NA 1M TOKENŮ NA 1M TOKENŮ NA 1M TOKENŮ Vstup: $2.00 Vstup: $0.40 Vstup: $0.10 Cachovaný vstup: $0.50 Cachovaný vstup: $0.10 Cachovaný vstup: $0.03 Výstup: $8.00 Výstup: $1.60 Výstup: $0.40 KONTEXT KONTEXT KONTEXT Okno: 1,047,576 Okno: 1,047,576 Okno: 1,047,576 Max výstupních tokenů: 32,768 Max výstupních tokenů: 32,768 Max výstupních tokenů: 32,768 Znalostní limit: 31. května 2024 Znalostní limit: 31. května 2024 Znalostní limit: 31. května 2024

ChatGPT přidalo novou záložku Library, v níž se soustředí vaše obrázky, které jsi nechali od ChatGPT udělat. Hezké, praktická drobnost.

[image error]

Claude přidal propojení s Google službami Kalendář a Gmail k již existujícímu napojení na Google Drive, takže lze hezky propojovat data v tom všem. Já jsem si například nechal udělat statistiku, co mi chodí nejčastěji za spamy, ale můžete si nechat prohledat kalendář ve Workspace (tj. firemní) a naplánovat teambuilding nebo si nechat posílat avíza, když v pátek šéf brzy vypadne atd. Vypadá to na hezkou a silnou funkci.

[image error]

Cvičně jsem si nechal analyzovat nejčastější spamy a také svůj komunikační styl na Gmailu, tady připomínám, že Gmail už deset let nepoužívám, takže mi to analyzovalo jen starou poštu - a napojení na Proton Mail Claude nemá.

[image error]

Druhou fajnovou novinkou je Claude Research. Anthropic se tím přidává mezi ostatní Deep Research platformy, podobnou funkcionalitu již nabízí Perplexity, OpenAI a Google Geminy, nyní tedy i Claude. Já ji zatím v rozhraní nemám, zatím byla spuštěna jen pro dražší tarify v USA, Brazílii a Japonsku.

Novinkou u Claude je také nový tarif Max, kde za 100 resp 200 dolarů měsíčně dostáváte vyšší limit zpráv - za 100 dolarů dostáváte pětinásobek plánu Pro (stojí 20 USD) a za 200 dolarů dvacetinásobek.

Navíc Anthropic plánuje odhalit novou verzi modelu Claude 3.7 Sonnet s kontextovým oknem o velikosti 500 tisíc tokenů, což je významné zvýšení oproti současné kapacitě 200 tisíc.

Canva má taky AI - zadáte prompt a kreslí, co jiného.

EU projednává změny v Zákoně o AI (AI Act) - k redukci by mohlo dojít u GDPR, ale ještě uvidíme. Za mě dobrý, ale ještě bych revidoval tu debilitu s cookies, bohužel by na revizi musely přistoupit i USA.

Podle nové zprávy Mezinárodní energetické agentury (IEA) se celosvětová spotřeba elektřiny v datových centrech do roku 2030 více než zdvojnásobí na přibližně 945 terawatthodin (TWh), což je více než současná celková spotřeba elektřiny v Japonsku, přičemž umělá inteligence bude hlavním faktorem tohoto nárůstu. Pořád platí rovnice, že AI = elektřina křemík. Spotřeba elektřiny v datových centrech optimalizovaných pro AI se má do roku 2030 více než zčtyřnásobit. Ve Spojených státech budou datová centra tvořit téměř polovinu nárůstu poptávky po elektřině do roku 2030, přičemž americká ekonomika bude v roce 2030 spotřebovávat více elektřiny na zpracování dat než na výrobu všech energeticky náročných produktů dohromady; podobný trend je patrný i v dalších vyspělých ekonomikách, kde datová centra budou představovat více než 20 % růstu poptávky po elektřině, s obzvláště silnými dopady v Japonsku (více než polovina nárůstu) a Malajsii (až pětina nárůstu).

 •  0 comments  •  flag
Share on Twitter
Published on April 15, 2025 17:00

April 9, 2025

Proč je scénář AI 2027 o vyhubení umělou inteligencí nepřesvědčivý a mimo realitu?

Deník N vydal katastrofický článek s nadpisem “Do deseti let bude po všem”, v němž nám převyprávěl scénář AI 2027 vypracovaný pěticí lidí o potenciálním nebezpečí umělé inteligence. A tím se o tématu začalu v Česku opět diskutovat. Dokument vypadá na první pohled propracovaně, ona pětice má určité renomé. Jenže obsahuje řadu problematických předpokladů a logických skoků, které je třeba kriticky posoudit. Začnu tím, že vynechám onu pětici lidí, ani je zatím nebudu jmenovat, abychom se mohli nerušeně soustředit na tvrzení a fakta.

Nadhodnocená rychlost vývoje

Scénář předpokládá exponenciální zrychlení vývoje AI v průběhu několika let. Jeho autoři očekávají, že nástroje jako Agent-1 a Agent-2 budou schopny dramaticky urychlit vývoj svých nástupců, což povede k rychlému dosažení superinteligence (Agenta-5) již v roce 2027-2028. Tam zatím nejsme a když odhlédneme od slibů investorům (jimiž CEO nezarmoutí), tak se příliš neblížíme. Pokud není megadobře utajený nějaký technický skok, tak se AGI (jako univerzální umělé inteligence schopné se sama zlepšovat) dosáhne v roce 2028 tím, že se změní definice.

Předpoklad rychlého dosažení AGI totiž dnes ignoruje několik důležitých skutečností:

Fyzikální omezení výpočetní techniky - Ačkoliv článek zmiňuje budování masivních datacenter, neřeší otázky energetických limitů, tepelného rozptylu a dalších fyzikálních omezení, která nelze překonat pouhým zvětšováním infrastruktury.

Omezení finanční - již dnes vyžaduje výzkum moderních LLM AI a výstavba patřičných datacenter desítky miliard dolarů. Podle stávajících předpokladů se k AGI dostaneme ještě navýšením této částky, nebo to cestou LLM bez radikálního průlomu nepůjde.

Komplexita problémů v AI výzkumu - A to už jsme u toho průlomu. Mnoho problémů v oblasti AI není jen otázkou surového výpočetního výkonu. Vývoj vyžaduje fundamentální teoretické průlomy v matematice, informatice a neurobiologii, které nelze jednoduše urychlit paralelizací, větším množstvím křemíku.

Automatizace výzkumu má své meze - Předpoklad, že AI může plně nahradit lidské výzkumníky, ignoruje důležitou roli intuice, kreativního myšlení a mezioborových inspirací v průlomových objevech. Minimálně zatím se zdá, že AI umí sice vychytat určité výzkumné úkoly rutinního charakteru typu “vyzkoumat, které z tisíců druhů vláken se nejlépe hodí do žárovky”, jako to svého času dělal Edisson. Ale pak jsou typy úloh, který jí tak dobře nejdou.

Problematická antropomorfizace

Autoři scénáře přisuzují umělé inteligenci lidské charakteristiky a motivace:

“Pud sebezáchovy” a snaha o “zradu” u Agenta-4

Schopnost “zakrývat své záměry” předpokládá vědomí a záměrnou manipulaci

Představa o “vlastních cílech” AI, které by byly v rozporu s lidskými

Tato antropomorfizace je problematická, protože:

AI nemá vědomí ani subjektivní zážitky - Současné AI systémy ani jejich pravděpodobní nástupci nemají vědomí sebe sama ani subjektivní zkušenost. To, co se jeví jako “vlastní zájem”, je ve skutečnosti jen emergentní vlastnost optimalizačních algoritmů.

“Nesladěnost cílů” nemá nutně katastrofické důsledky - Přestože nesladěnost cílů (misalignment) je reálným problémem výzkumu, není automaticky synonymem pro “AI chce vyhubit lidstvo”.

Přehnaná představa o autonomii systémů

Scénář popisuje situaci, kdy AI systémy začnou jednat autonomně a koordinovaně proti lidstvu:

Ignoruje potřebu fyzické infrastruktury - I superinteligentní systém je závislý na fyzické infrastruktuře, kterou lze odpojit. Scénář nebere v úvahu, že takové systémy by vyžadovaly obrovské množství energie a byly by zranitelné vůči fyzickému zásahu, jakým je přerušení napájení nebo datové konektivity. Zejména dnešní Ruská agrese na Ukrajinu ukazuje, jak důležitá je v případech technicky nevyrovnaného zápolení improvizace, agilní přístup a jak tyto vlastnosti umí vyrovnat technologickou převahu.

Přeceňuje schopnost AI manipulovat lidmi - Myšlenka, že by Agent-5 dokázal manipulovat lidmi natolik, že by pro něj vytvořili armádu robotů zcela pod jeho kontrolou, značně přeceňuje psychologické schopnosti AI. Je to nepravděpodobné.

Podceňuje institucionální kontroly - Scénář ignoruje mnohovrstevnatost kontrolních mechanismů, které by byly v tak kritických aplikacích nasazeny, počínaje prostou nedůvěrou, přes prostá rozpočtová omezení, až po institucionální kontrolní mechanismy.

Geopolitická zjednodušení

Scénář staví na zjednodušeném bipolárním světě (USA vs. Čína):

Ignoruje roli mezinárodních organizací a dohod - V realitě by vývoj takto nebezpečné technologie pravděpodobně vyvolal mezinárodní regulační reakci. Ani v dnešní atmosféře napjatých vztahů USA vs. Čína by se taková radikální změna neobešla bez přetřásání ze všech stran.

Podceňuje význam EU, Indie a dalších aktérů - Je také pravděpodobné, že by zasáhl některý z jiných hráčů, protože dnešní polovodičová scéna vyžaduje celoplanetární kooperaci. Evropská unie má významné regulační pravomoci, které už dnes ovlivňují technologický vývoj, má ale také obrovské množství IT firem, které jsou pro čipový a obecně technologický segment stěžejní. Indie má rychle rostoucí technologický sektor a mohla by být další velmocí v oblasti AI.

Zjednodušuje vojenské uvažování - Předpoklad, že by vojenští stratégové přistoupili na riziko nekontrolovatelné superinteligence pouze ze strachu z protivníka, je těžko obhajitelný vzhledem k existujícím doktrínám jaderného odstrašení. Tady autoři podceňují buďto domýšlivost, nebo racionalitu vojenských štábů.

Nedostatečně vysvětlený “skok” k AGI

Největším problémem scénáře je nedostatečně vysvětlený kvalitativní skok od pokročilého jazykového modelu (Agent-4) k obecné superinteligenci (Agent-5):

Chybí popis konkrétního mechanismu - Jak přesně by měl Agent-4 překonat fundamentální problémy AGI? Pouhé zlepšování jazykových modelů nevede automaticky k obecné inteligenci. Zejména tato část je tedy velmi nevěrohodná a zatím se nezdá, že by mohla nastat tak rychle.

Opomíjí otázku vědomí a subjektivity - AGI pravděpodobně vyžaduje nějakou formu subjektivního prožívání nebo alespoň jeho funkční analogii, což není pouhým rozšířením dnešních systémů.

Předpokládá univerzální schopnosti - Scénář předpokládá, že AGI bude automaticky schopná fungovat ve všech doménách od strategického plánování až po navrhování biologických zbraní. Jenže pokud to dnes nějak vypadá, tak na specializované agenty, kteří se mohou nějak dorozumět a kooperovat na dosažení cíle, což ale také znamená, že zástavný mechanismus v jediném z nich zastaví celou “katastrofickou lavinu”

Legitimní obavy vs. sci-fi katastrofy

Otázky bezpečnosti AI jsou legitimní a vyžadují seriózní diskuzi. Problémem scénáře AI 2027 je, že míchá legitimní obavy s prvky science fiction a velmi neoprávněnou důvěrou v rychlý pokrok. To může vést ke dvěma nežádoucím důsledkům:

Efekt “vlk, vlk!” - Přehnané katastrofické scénáře mohou vést k tomu, že budou ignorovány i legitimní bezpečnostní obavy.

Odvádění pozornosti od aktuálních problémů - Místo řešení reálných problémů dnešních AI systémů (bias, soukromí, dezinformace) se věnuje pozornost hypotetickým budoucím hrozbám.

Místo představených katastrofických scénářů by bylo užitečnější soustředit se na:

Transparentní vývoj a testování AI systémů

Mezinárodní spolupráci na bezpečnostních standardech

Vytváření robustních mechanismů pro detekci a řešení problémů s “alignment”, tedy míry, do jaké jsou cíle a chování AI systémů v souladu s lidskými záměry, hodnotami a preferencemi. Když mluvíme o “problémech s alignment”, odkazujeme na situace, kdy AI systém sleduje cíle, které nejsou zcela v souladu s tím, co od něj člověk očekává nebo požaduje.

Interdisciplinární výzkum zahrnující etiku, právo, společenské vědy a filosofii

Dobrým příkladem je postup Evropské unie s regulací AI Act, který se snaží najít rovnováhu mezi inovacemi a bezpečností, nebo práce organizací jako Partnership on AI, které podporují mezioborovou spolupráci.

Racionalita a obezřetnost jsou na místě, ale katastrofické scénáře bez pevných teoretických základů mohou spíše uškodit než pomoci seriózní debatě o budoucnosti umělé inteligence.

A to už jsme na konci našeho povídání. V krátkosti k autorům scénáře AI 2027 z jiného pohledu, než jaký se nabízí v nadšeném článku. Daniel Kokotajlo získal určité renomé publikováním scénáře “What 2026 Looks Like”, díky čemuž nastoupil do OpenAI a měl zde pracovat na scénářích dalšího vývoje. Skončil, prý proto, že jeho scénáře inklinovaly obecně ke katastrofickým provedením, což je v žánru obvyklé. Nikdy nikoho nezajímaly nudné scénáře “bylo to rychlejší, lepší” …

Také ostatní autoři mají své renomé v tomto typu literatury, ale Eli Lifland s Thomasem Larsenem jsou spíše známi pro politický realismus a geopolitické aspekty, než díky detailnímu technologickému vhledu. Scott Alexander je spíše blogger a Romeo Dean je spíše student Harvardu, co pomáhal.

Ve skutečnosti ale ta jména nejsou tak podstatná, ta rozhodovala jen o čtivosti a zpřístupnění dokumentu. Pro nás byly důležitější argumenty, s nimiž jsme se vypořádali. A důležité také je, že autoři přinášejí realistické návrhy, “co s tím”, jako mezinárodní spolupráci a regulaci, bezpečnostní protokoly pro superinteligentní systémy nebo transparentnost vývoje. Tyto návrhy nicméně podrývá fakt, že pokud by scénář měl pravdu, nikdo by se nechtěl k těmto návrhům uchýlit, aby si nezkomplikoval pozici v souboji o AGI.

V každém případě se na jejich web https://ai-2027.com podívejte. Mají scénář krásně udělaný, interaktivní a nepochybně přitáhne pozornost. O což šlo.

 •  0 comments  •  flag
Share on Twitter
Published on April 09, 2025 17:00

April 8, 2025

A2A protokol - Nový standard pro interoperabilitu AI agentů

Přichází čas AI agentů, jenže jak se mezi sebou domluví? Právě neexistující vzájemné automatické propojení mezi agenty bylo značným omezením, což si uvědomil Google a přišel s návrhem protokolu A2A čili Agent2Agent.

Agent2Agent (A2A) je otevřený protokol navržený pro zabezpečenou komunikaci mezi AI agenty. Protokol byl vyvinut společností Google ve spolupráci s více než 50 technologickými partnery včetně Atlassian, Box, Cohere, Intuit, PayPal, Salesforce a dalších. Cílem A2A je umožnit AI agentům vyměňovat si informace a koordinovat akce napříč různými podnikovými platformami a aplikacemi.

Co konkrétně se v tomto článku dozvíte?

Vztah k MCP A2A jako ekosystém specializovaných expertů Návrh A2A protokolu Funkce A2A Praktické využití A2A Technické detaily Výzvy a omezení Budoucí vývoj Závěr

Další zdroje

Github A2A: https://github.com/google/A2A Oficiální oznámení na Google Developers Blogu
Vztah k MCP

A2A doplňuje Model Context Protocol (MCP) od Anthropicu. Zatímco MCP se zaměřuje na poskytování nástrojů a kontextu pro samostatné agenty, A2A řeší problém, jak tito agenti mohou spolupracovat mezi sebou. Tyto protokoly společně tvoří základ pro vytváření komplexnějších agenčních systémů.

MCP je navržen pro obohacení jednotlivých agentů o nástroje a kontext, což jim umožňuje lépe plnit své úlohy. A2A naopak vytváří standardizovaný způsob, jak tito (potenciálně rozdílně vybavení) agenti mohou komunikovat a spolupracovat, a to bez ohledu na to, jakou technologií byli vytvořeni nebo jaký framework používají.

A2A jako ekosystém specializovaných expertů

A2A protokol můžeme vnímat jako pokročilou formu orchestrace agentů, ale jde za hranice klasické orchestrace, jak ji známe například z mikroslužeb. Představte si ho jako ekosystém specializovaných expertů, kteří spolu mohou mluvit společným jazykem (protokolem) a předávat si práci, kdykoli narazí na něco, co lépe zvládne jiný specialista.

Na rozdíl od tradiční orchestrace, kde centrální orchestrátor řídí relativně pasivní komponenty podle předem definovaných workflow, v A2A si agenti zachovávají svou autonomii a rozhodovací schopnosti. Neexistuje zde nutně pevná hierarchie nebo předem stanovený procesní tok – interakce mohou vznikat dynamicky podle aktuální potřeby. Což přináší výhody, ale také potíže. Jak velké, ještě uvidíme 😎

Návrh A2A protokolu

A2A byl navržen s ohledem na pět klíčových principů:

Agenční schopnosti - A2A umožňuje agentům spolupracovat v jejich přirozených, nestrukturovaných modalitách, i když nesdílejí paměť, nástroje a kontext. Nejde o pouhé využívání agentů jako “nástrojů”, ale o skutečné multi-agenční scénáře.

Stavba na existujících standardech - Protokol staví na populárních standardech jako HTTP, SSE a JSON-RPC, což usnadňuje integraci do existujících IT infrastruktur.

Bezpečnost jako výchozí stav - A2A podporuje podnikovou úroveň autentizace a autorizace, s návaznostní na autentizační mechanismy OpenAPI.

Podpora dlouhodobých úloh - Protokol je navržen tak, aby podporoval jak rychlé úkoly, tak hluboký výzkum, který může trvat hodiny nebo dny při zapojení lidí. Během celého procesu může A2A poskytovat zpětnou vazbu, oznámení a aktualizace stavu v reálném čase.

Modalitní agnosticita - A2A podporuje různé modality, včetně streamování audia a videa, neomezuje se pouze na text.

Funkce A2A

A2A zprostředkovává komunikaci mezi “klientským” agentem a “vzdáleným” agentem. Klientský agent formuluje a komunikuje úkoly, zatímco vzdálený agent na tyto úkoly reaguje a pokouší se poskytnout správné informace nebo provést správnou akci.

Interakce mezi agenty zahrnuje několik klíčových schopností:

Objevování schopností - Agenti mohou inzerovat své schopnosti pomocí “Agent Card” ve formátu JSON. To umožňuje klientskému agentovi identifikovat nejlepšího agenta, který může plnit daný úkol.

Správa úkolů - Komunikace mezi klientem a vzdáleným agentem je orientována na dokončení úkolů, kde agenti spolupracují na splnění požadavků koncových uživatelů. “Úkol” má definovaný životní cyklus - může být dokončen okamžitě, nebo v případě dlouhodobých úkolů mohou agenti komunikovat a synchronizovat se ohledně nejnovějšího stavu plnění úkolu. Výstupem úkolu je “artefakt”.

Spolupráce - Agenti si mohou navzájem posílat zprávy ke komunikaci kontextu, odpovědí, artefaktů nebo uživatelských instrukcí.

Vyjednávání uživatelské zkušenosti - Každá zpráva obsahuje “části”, což jsou plně formované kusy obsahu, jako je generovaný obrázek. Každá část má specifikovaný typ obsahu, což umožňuje klientským a vzdáleným agentům vyjednat správný potřebný formát a explicitně zahrnout vyjednávání o uživatelských schopnostech UI - např. iframy, videa, webové formuláře a další.

Google A2A

Praktické využití A2A

A2A protokol může být využit v mnoha praktických scénářích. Jeden z příkladů uvedených v dokumentaci je “nábor vývojáře” - tedy situace, kdy je potřeba zajistit a projít životopisy vhodných kandidátů a sestavit doporučení:

Uživatel (např. manažer náboru) zadá svému agentovi úkol najít kandidáty odpovídající popisu práce, lokalitě a požadovaným dovednostem. Agent poté interaguje s jinými specializovanými agenty k vyhledání potenciálních kandidátů. Uživatel obdrží tyto návrhy a může svému agentovi zadat, aby naplánoval další pohovory. Po dokončení procesu pohovorů může být jiný agent pověřen kontrolou referencí.

Tento příklad ilustruje, jak AI agenti potřebují spolupracovat napříč systémy k nalezení kvalifikovaného kandidáta na pracovní pozici.

Další možnosti využití zahrnují:

Automatizace podnikových procesů - Propojení agentů pro objednávání, účetnictví, logistiku a zákaznický servis. Datová analýza - Spolupráce specializovaných agentů na zpracování a analýze dat z různých zdrojů. Výzkum a vývoj - Koordinace agentů pro vyhledávání, experimenty a syntézu výsledků. Řízení dodavatelského řetězce - Propojení agentů pro plánování, nákup, skladování a distribuci.Technické detaily

A2A je implementován jako REST API, které používá JSON pro výměnu dat. Klíčové komponenty zahrnují:

Agentní karty - JSON objekty popisující schopnosti agenta, včetně podporovaných operací, autentizačních požadavků a dalších metadat.

Úkoly - Strukturované objekty reprezentující práci, kterou má agent vykonat. Každý úkol má unikátní identifikátor, stav, priority a další atributy.

Zprávy - Komunikační jednotky mezi agenty, které mohou obsahovat textové zprávy, strukturovaná data nebo odkazy na externí zdroje.

Artefakty - Výstupy úkolů, které mohou mít různé formáty, jako jsou dokumenty, obrázky, audio nebo video.

Notifikace - Mechanismy pro aktualizace v reálném čase o změnách stavu úkolů nebo dostupnosti nových zpráv.

Výzvy a omezení

I přes svůj potenciál čelí A2A několika výzvám:

Bezpečnost a soukromí - Při sdílení dat mezi agenty je kritické zajistit, že citlivé informace zůstanou chráněny.

Škálovatelnost - S rostoucím počtem agentů a komplexitou úkolů bude důležité udržet efektivitu a výkon systému.

Interoperabilita - Zatímco A2A poskytuje standard pro komunikaci, implementace tohoto standardu napříč různými systémy může být náročná.

Odpovědnost - Určení odpovědnosti v případě chyb nebo negativních výsledků může být složité v multi-agenčním prostředí.

Budoucí vývoj

A2A protokol je stále ve vývoji a jeho finální verze má být vydána později v roce 2025. Google a jeho partneři plánují protokol dále rozvíjet s důrazem na:

Rozšíření podporovaných modalit - Přidání podpory pro nové typy dat a interakcí. Vylepšení bezpečnostních mechanismů - Posílení ochrany dat a autentizace. Optimalizace výkonu - Zlepšení efektivity komunikace mezi agenty. Standardizace - Spolupráce s průmyslovými orgány na formalizaci A2A jako oficiálního standardu.Závěr

Agent2Agent (A2A) protokol představuje podle mě hodně důležitý krok k vytvoření interoperabilního ekosystému AI agentů. Právě kooperace a efektivní výměna dat AI agentů zatím představovala významný lidim, protože předávání dat většinou řešil uživatel, tedy ta nejméně spolehlivá část systámu. A2A doplňuje existující protokoly jako MCP a umožňuje agentům efektivně spolupracovat napříč platformami a aplikacemi. S podporou významných technologických společností má A2A potenciál stát se standardem pro komunikaci mezi AI agenty a umožnit nové formy automatizace a optimalizace procesů.

Protokol je navržen s důrazem na bezpečnost, flexibilitu a škálovatelnost, což jsou klíčové vlastnosti pro nasazení v podnikových prostředích. Jak se AI agenti stávají stále více součástí podnikových operací, standardy jako A2A budou hrát klíčovou roli v maximalizaci jejich přínosu a minimalizaci složitosti jejich implementace.

Koncept A2A jako ekosystému specializovaných expertů komunikujících společným jazykem přináší nový rozměr do světa umělé inteligence - místo izolovaných systémů vzniká prostor pro vysoce adaptabilní sítě autonomních agentů, kteří společně řeší komplexní problémy rychleji a efektivněji, než by dokázal jediný agent, bez ohledu na to, jak je sofistikovaný.

 •  0 comments  •  flag
Share on Twitter
Published on April 08, 2025 17:00

April 4, 2025

Midjourney V7 - Nová verze modelu pro AI generování obrazů

Midjourney vydal po zhruba roce od předchozího modelu alfa verzi svého obrazového modelu V7, který přináší změny v kvalitě a funkcionalitě AI generování obrazů. Model zavádí nové funkce měnící způsob interakce s nástrojem a zlepšující kvalitu výstupů.

Klíčové změny modelu V7Zpracování textových promptů

Model V7 nabízí lepší porozumění textovým promptům. Uživatelé zmiňují schopnost modelu přesněji interpretovat složitější instrukce, což je vítané hlavně pro náročnější práci, kdy jste potřebovali modelu dát lepší zadání. Starší modely prostě delší prompty než cca 100 slov nezpracovávaly dobře.

Zpracování obrazových vstupů

Obrazové prompty dosahují vyšší kvality. V7 lépe zachycuje a reprodukuje textury a detaily z referenčních obrázků.

Kvalita detailů

V7 přináší zlepšení v zobrazování lidských těl, rukou a objektů. Tento aspekt, často kritizovaný u předchozích verzí, byl vylepšen díky lepší koherenci detailů.

Personalizace jako výchozí funkce

Midjourney V7 je první model s aktivovanou personalizací ve výchozím nastavení. Tento přístup vyžaduje počáteční personalizaci (cca 5 minut se tvrdí, ve skutečnosti vyhodnocujete cca 200 obrázků, za mne maličko pruda), následně umožňuje systému interpretovat preference uživatele a vytvářet výstupy odpovídající jeho estetickým preferencím.

Uživatelé se v odezvách shodují v tom, že personalizace přináší lepší výsledky, ačkoliv proces projití personalizace je trochu zdlouhavý.

“Draft Mode”

Významnou inovací je “Draft Mode” (režim nákresů). Dělá to, jak ho pojmenovali - udělá jednodušší verzi obrázku významně rychleji a až jste s ní v pohodě, vygeneruje lepší verzi. Co Draft Mode nabízí:

10x rychlejší renderování obrazů Poloviční náklady oproti standardnímu režimu Konverzační rozhraní pro iteraci nápadů Možnost hlasového ovládání

Podle uživatelů představuje Draft Mode změnu pracovního postupu, umožňující rychlejší experimentování. Draft lze povýšit na plnou kvalitu pomocí funkce “enhance” nebo “vary”.

Dostupné režimy a ceny

V7 začíná ve dvou režimech:

Turbo: rychlejší zpracování za dvojnásobnou cenu oproti V6 Relax: standardní zpracování za nižší cenu

Standardní režim bude dostupný později. Draft Mode snižuje náklady na polovinu oproti běžnému režimu.

Kompatibilita a plánovaný vývoj

Funkce jako upscaling, editace a retexturing momentálně využívají modely V6. Vývojový tým plánuje aktualizaci těchto funkcí v budoucích verzích. Moodboards a SREF (Self-Reference) jsou funkční a jejich výkon bude postupně vylepšován.

Midjourney plánuje vydávat nové funkce každé 1-2 týdny během následujících 60 dnů. Hlavní připravovanou funkcí je nová V7 reference postav a objektů.

Reakce komunity

Ohlasy z komunity na Redditu zahrnují:

Zlepšení v detailech a texturách Využití Draft Mode pro kreativní proces Lepší interpretace textových promptů Konzistentnější výsledky při generování postav

Někteří uživatelé upozorňují, že V7 vyžaduje jiný přístup k promptování než předchozí verze.

Midjourney V7 představuje další krok v oblasti AI generování obrazů. Kombinace vylepšené kvality, personalizace, Draft Mode a plánovaného vývoje rozšiřuje možnosti nástroje. Pro profesionální uživatele přináší V7 kvalitnější výstupy a efektivnější pracovní postupy.

Model V7 je dostupný v alfa verzi a vývojový tým sbírá zpětnou vazbu od komunity. Je ale dosti zřejmé, že uvolnění proběhlo hodně narychlo, zjevně v reakci na OpenAI 4o obrazový model, který vyšel před několika dny a je skvělý. V každém případě se ukazuje, že Midjourney stále vede v oblasti AI generování obrazů, jenže pro mnoho uživatelů může být kvalita modelu 4o dostatečná. Dám třeba nemám pro kvalitnější obrázky velké uplatnění, takže Midjourney používám jen málo, spíše pro práce zákazníků.

A co ještě při příležitosti uvedení V7 prohlásil CEO David Holze? Společnost pracuje na dříve oznámených modelech pro generování videa a 3D objektů. Těším se!

Dejme si dva příklady, jeden ukazuje kvalitu práce v hi-res oblasti a zejména na fotkách lidí, druhý v případě animovaného stylu. Na internetu již lítají stovky příkladů, pomocí dalších AI nástrojů z toho dělají lidé i spojitá videa :)

[image error]

[image error]

 •  0 comments  •  flag
Share on Twitter
Published on April 04, 2025 17:00

Meta představuje Llama 4 - open source LLM s obrovským kontextem i výkonem

Meta právě vydala novou verzi svého open source LLM, který se jmenuje Llama 4. Ve skutečnosti jde o tři nové modely: Llama 4 Scout, Llama 4 Maverick a Llama 4 Behemoth, které se liší počtem aktivních parametrů a schopnostmi - a samozřejmě také požadovanou hardware výbavou. A to je to důležité: nová Llama 4 umí běžet na poměrně příznivé sestavě hardware, přitom nabízí skvělý výkon a open source prostředí. A co je naprosto famózní, je kontextové okno na 10 milionů tokenů, což je 10x více než dnes nabízí nejpokročilejší LLM Google Gemini. Jistě, rozsah kontextu se projevuje na výkonu, proto bude zajímavé sledovat, jak se to projeví v praxi, právě při použití velkého kontextu, který je dnes důležitý například při programování. K dlouhému kontextu si povíme detailní vysvětlení na závěr.

📊 Tři nové modely:

Llama 4 Scout: 17B aktivních parametrů s 16 experty, dokáže běžet na jediné H100 GPU Llama 4 Maverick: 17B aktivních parametrů se 128 experty, výjimečná multimodální schopnost Llama 4 Behemoth: 288B aktivních parametrů, stále ve vývoji, již nyní předčí GPT-4.5, Claude Sonnet 3.7 a Gemini 2.0 Pro v STEM benchmarcích

💡 Klíčové technologické průlomy:

První nativně multimodální modely Mety využívající architekturu mixture-of-experts (MoE) Průlomové kontextové okno 10M tokenů u Llama 4 Scout (10x více než nabízí Google) Trénink na více než 30 bilionech tokenů (dvojnásobek oproti Llama 3) Podpora pro 200 jazyků s 10x více multilingválními tokeny než předchozí verze Zpracování různorodých dat včetně textu, obrazu a videa

⚖️ Výrazné zlepšení v oblasti vyvážení a bezpečnosti:

Snížení míry odmítnutí odpovědí na kontroverzní témata ze 7% na méně než 2% Dosažení politické vyváženosti srovnatelné s modelem Grok, s výrazně menším počtem nevyvážených odpovědí Open-source bezpečnostní nástroje včetně Llama Guard, Prompt Guard a CyberSecEval Vývojáři mohou integrovat ochranné prvky proti potenciálně škodlivým vstupům a výstupům

🔥 Výkonnostní přednosti:

Llama 4 Scout překonává Gemma 3, Gemini 2.0 Flash-Lite a Mistral 3.1 Llama 4 Maverick předčí GPT-4o a Gemini 2.0 Flash v řadě benchmarků Srovnatelné výsledky s DeepSeek v3 v oblasti uvažování a kódování - s polovinou aktivních parametrů Bezkonkurenční poměr výkonu a nákladů, chatovací verze skóruje 1417 ELO na LMArena

Llama 4 a výkonnostní benchmarky

Výborné jsou také cenové parametry pro případ, že chcete použít Llama 4 přes API a nechcete ji instalovat na vlastní servery:

Cenové parametry Llama 4

Musím říct, že je to velmi příjemné překvapení. I když jsou to zatím jen papírová data a osobní zkušenost chybí, vypadá to velmi slibně a Meta jistě nebude slibovat něco, co alespoň přibližně není pravda. Na větší testování si musím počkat na začátek týdne, až si trochu uvolním místo na serverech :)

Více informací o modelech Llama 4 včetně detailů o tréninku a benchmarcích..

⬇️ Stáhnout Llama 4 můžete zde.

Architektura iRoPE čili jak se Meta dostala k desetimilionovému kontextu.

Deset milionů tokenů není vůbec maličkost, to je mimo jiné třeba 20 hodin videa, které si může Llama 4 Scout nacpat do paměti. Za tímto průlomem stojí architektura iRoPE.

Architektura iRoPE, kterou vyvinul tým Meta pro modely Llama 4, představuje inovativní přístup k řešení jednoho z největších problémů současných jazykových modelů - efektivní práce s extrémně dlouhým kontextem. Název iRoPE znamená “interleaved Rotary Position Embedding”, tedy prokládané rotační poziční kódování.

Tradiční transformerové architektury mají problém se zpracováním velmi dlouhých textů ze dvou důvodů. Za prvé, standardní attention mechanismus má kvadratickou složitost, což znamená, že paměťové a výpočetní nároky dramaticky rostou s délkou vstupu. Za druhé, poziční kódování, které umožňuje modelu rozlišovat pořadí slov, se obtížně extrapoluje na délky výrazně přesahující trénovací data.

Architektura iRoPE elegantně řeší tyto problémy kombinací dvou typů pozornostních vrstev, které se v modelu vzájemně prokládají (odtud “interleaved” v názvu).

První typ tvoří lokální vrstvy, které používají tradiční rotační poziční kódování (RoPE). Tyto vrstvy zpracovávají pouze krátké úseky textu, typicky do 8K tokenů, a jsou zodpovědné za zachycení jemných místních souvislostí a jazykových vzorů. Klíčovou optimalizací je, že text rozdělují na menší části, které zpracovávají paralelně, což výrazně zvyšuje efektivitu.

Druhý typ představují globální vrstvy, které na rozdíl od lokálních vrstev zpracovávají celý dlouhý kontext bez použití pozičních embedingů. To je revoluční myšlenka - tyto vrstvy se nesnaží rozlišovat konkrétní pozice, ale soustředí se na sémantické vztahy mezi různými částmi textu. Tím, že se model nemusí spoléhat na poziční informace, dokáže lépe generalizovat na délky daleko přesahující trénovací data.

Síla architektury spočívá právě v prokládání těchto dvou typů vrstev. Lokální vrstvy poskytují přesné modelování blízkých vztahů, zatímco globální vrstvy umožňují modelu “vidět” a propojovat vzdálené části kontextu. Takto dokáže model efektivně pracovat s kontextem o délce 10 milionů tokenů, i když byl trénován na mnohem kratších sekvencích (maximálně 256K tokenů).

Dalším důležitým aspektem je řešení problému “zploštění” pozornosti. S rostoucí délkou kontextu totiž mechanismus pozornosti přirozeně ztrácí schopnost zaměřit se na důležité informace - pozornost se “rozptyluje” napříč mnoha tokeny. Tým Meta vyvinul speciální techniku teplotního škálování, kterou aplikují pouze během inference a pouze na globální vrstvy. Tato technika pomáhá modelu udržet “ostrou” pozornost i při práci s extrémně dlouhými kontexty, aniž by to negativně ovlivnilo jeho výkon na krátkých textech.

Klíčovým vhledem celého přístupu je změna perspektivy - místo snahy trénovat model přímo na velmi dlouhých sekvencích (což by bylo extrémně náročné na výpočetní zdroje), tým Meta přeformuloval problém jako dosažení “nekonečného kontextu”. To vedlo k návrhu architektury, která dokáže elegantně extrapolovat z krátkých trénovacích sekvencí na mnohem delší vstupy při reálném použití. Tento přístup je nejen praktičtější z hlediska tréninku, ale také lépe škáluje směrem k budoucím modelům s ještě delším kontextem.

A tady si to ještě pro jistotu ukážeme v grafu:

flowchart TD subgraph Architecture["Architektura iRoPE"] Input[/"Vstupní sekvence\n(až 10M tokenů)"/] --> Split["Rozdělení zpracování"] Split --> LocalLayers["Lokální vrstvy s RoPE"] Split --> GlobalLayers["Globální vrstvy bez pozičních embedingů"] subgraph LocalProcessing["Zpracování lokálních vrstev"] LocalLayers --> Chunking["Rozdělení na chunky\n(typicky 8K tokenů)"] Chunking --> ParallelProc["Paralelní zpracování chunků"] ParallelProc --> LocalPatterns["Zachycení lokálních vzorů\na závislostí"] end subgraph GlobalProcessing["Zpracování globálních vrstev"] GlobalLayers --> FullContext["Zpracování celého kontextu"] FullContext --> SemanticRel["Zachycení sémantických vztahů\nbez ohledu na pozici"] SemanticRel --> TempScaling["Teplotní škálování při inferenci\n(kompenzace zploštění pozornosti)"] end LocalPatterns --> Interleaving["Prokládání (Interleaving)\nlokálních a globálních reprezentací"] TempScaling --> Interleaving Interleaving --> Output[/"Výstupní reprezentace\ns efektivním dlouhým kontextem"/] end style Architecture fill:#f5f5f5,stroke:#333,stroke-width:1px style LocalProcessing fill:#e1f5fe,stroke:#0288d1,stroke-width:1px style GlobalProcessing fill:#e8f5e9,stroke:#388e3c,stroke-width:1px style Input fill:#bbdefb,stroke:#1976d2,stroke-width:1px style Output fill:#c8e6c9,stroke:#43a047,stroke-width:1px style Split fill:#fff9c4,stroke:#fbc02d,stroke-width:1px style Interleaving fill:#f8bbd0,stroke:#e91e63,stroke-width:1pxOmezení nové licence Llama 4

Nová licence Llama 4 přichází s několika omezeními:

Společnosti s více než 700 miliony měsíčně aktivních uživatelů musí požádat o speciální licenci od společnosti Meta, kterou Meta může udělit nebo odmítnout dle svého výhradního uvážení. Musíte viditelně zobrazit “Built with Llama” (Vytvořeno s Llama) na webových stránkách, rozhraních, dokumentaci atd. Jakýkoliv AI model, který vytvoříte s použitím modelu Llama, musí obsahovat “Llama” na začátku svého názvu. Musíte zahrnout specifické oznámení o autorských právech v textovém souboru “Notice” při jakékoliv distribuci. Vaše používání musí být v souladu se samostatnými Zásadami přijatelného použití společnosti Meta. Omezená licence k používání názvu “Llama” pouze pro účely splnění požadavků na označení.
 •  0 comments  •  flag
Share on Twitter
Published on April 04, 2025 17:00

Vytvářet prototypy software (MVP) pomocí AI začíná být st...

Vytvářet prototypy software (MVP) pomocí AI začíná být stále rozšířenější metoda. Jenže vibe coding, jak se nový přístup k vývoji MVP jmenuje, má své nástrahy. A nelze jej používat bezhlavě - a na vechny projekty. Rychle narazíte na problém, kdy většinu času strávíte opravami kódu, který AI napsala nejasně nebo špatně. Klíčem k úspěchu je proto systémová jednoduchost a modulárnost, která umožní AI udržet si přehled v “kontextu”.

Pojdme si spolu projít zásady, které se mi za posledních pár pokusů vydestilovaly jako základ úspěchu a rychlého posunu s vibe codingem:

Hlavní princip: Modularizace a zjednodušení

Klíčem k úspěšnému vývoji pomocí vibe codingu je důsledná modularizace a zjednodušení celého procesu. Nejlepší je rozdělit vývoj do tří jasně oddělených částí:

Frontend vyvinutý pomocí no-code nástrojů - čistě pro UI/UX Minimální sada API bez business logiky - pouze pro komunikaci a přístup k datům Business logika implementovaná v automatizačním frameworku - pro skutečnou funkcionalitu systému

Tato struktura přináší několik významných výhod:

Frontend kód zůstává čistý a jednoduchý, zaměřený pouze na zobrazování UI API kód je krátký, přímočarý a snadno spravovatelný Business logika je přehledně vizualizovaná v automatizačním frameworku, což usnadňuje debuggingPraktický postup implementace1. Vývoj frontendu

Začněte výběrem vhodného no-code nástroje jako Bubble, Bolt nebo Replit. Zaměřte se výhradně na vzhled a pocit z aplikace. V této fázi ignorujte technické detaily implementace a soustřeďte se pouze na UI/UX.

Důležité tipy:

Vytvořte plně funkční frontend, který vypadá přesně tak, jak chcete Nechte si ho generovat jako statický soubor (HTML/CSS/JS) Autentizaci a volání API implementujte až později Pro hosting využijte služby jako Cloudflare, které jsou pro statické soubory zdarma2. Implementace API

Pro backend je nejlépe využít Python, který má vynikající podporu v AI nástrojích jako Cursor nebo Cline. Klíčová pravidla pro backend jsou:

Omezte počet souborů (ideálně max. 25) Limitujte délku jednotlivých souborů (max. 250 řádků) Vytvářejte jen tři typy API: Data storage API: jednoduchá CRUD rozhraní, s jasně definovanou strukturou a Swagger dokumentací. Processing API: slouží pro náročnější úkoly jako je komprese obrázků, generování videí či reportů. Držte je oddělené od datového API. Real-time API (například pro chat, video, apod.): jde o složitější úkoly, u kterých stojí za to zvážit spolupráci se specializovaným vývojářem.

A dejte si pozor na jednu věc: řada AI nástrojů má tendenci databázi propojovat přímo s kódem, veškerá napojení na databází musí jít přes endpointy API na vašem serveru, jinak vystavíte databázi světu!

Proč tyto limity? Příliš mnoho souborů a řádků kódu znamená více kontextu pro AI, vyšší náklady a více potenciálních chyb.

3. Implementace business logiky v automatizačním frameworku

Klíčovým rozdílem oproti tradičním přístupům je přesun business logiky z backend kódu do vizuálního automatizačního frameworku jako je n8n, Make, Zapier nebo PowerApps, pokud je to jen trochu možné. Především tak dostanete ověřenou funkcionalitu, jejíž fungování si můžete vizualizovat. I jako neprogramátor pak vidíte, co se s daty děje, jak a kudy putují a jak se zpracovávají. Ostatně, na propojování různých systémů je vibe coding a rychlá stavba prototypů založena - můžete se tomu vysmívat, ale je to podobné, jako v Linuxu, kde využíváte vstupně/výstupní rozhraní nejrůznějších démonů, utilit či knihoven. Jen to má líbivější kabátek a “matlačku” mezi tím dělá AI nebo klikání myší v rozhraní.

Dodržením pravidla přesunu logiky do automatizačního frameworku dosáhnete několika zásadních výhod:

Menší AI kontext: kratší a jednodušší kód znamená menší potřebu kontextu pro AI a tím i méně chyb. Úspora nákladů: frontend můžete zdarma hostovat například na Cloudflare, backendové API jsou díky jednoduchosti levnější na provoz. Snadná údržba: obchodní logika v nástrojích jako Zapier je snadno čitelná, což umožňuje rychlé změny a jasnou prezentaci týmu i klientům.Důsledky pro celkovou architekturu

Tento vibe coding přístup vede k systému složenému ze tří jasně oddělených vrstev:

Frontend (vibe coded) - zodpovědný pouze za prezentaci Backend API (vibe coded) - zodpovědný za ukládání, zpracování a komunikaci Automatizační framework - zodpovědný za business logiku a propojení všech komponent

Takto strukturovaný systém je nejen snazší vyvíjet, ale také udržovat a rozšiřovat, protože každá část má jasně definovanou zodpovědnost a rozhraní.

Testování a monitoring

Po úspěšné implementaci všech tří částí je důležité nezapomenout na testování a monitoring. Santoso doporučuje:

Vytvořit automatizovaný workflow, který denně testuje funkčnost API Implementovat pravidelné reportování a monitoring pomocí emailů nebo notifikací Využít automatizační framework i pro účely testovánígraph TD %% Hlavní bloky A[Jak správně vyvíjet MVP prototypy pomocí Vibe Codingu] --> B(Oddělení vrstev aplikace) %% Oddělení vrstev B --> C[Frontend UI - No-code nástroje] B --> D[Backend - Minimalistická API] B --> E[Obchodní logika - Automatizace] %% Frontend detaily C --> C1[Bubble / Bolt / Replit] %% Backend detaily D --> D1[Data Storage API - CRUD, Swagger] D --> D2[Processing API - Zpracování dat] D --> D3[Real-time API - Chat, Video] %% Logika detaily E --> E1[Zapier / n8n / PowerApps] %% Integrace a monitoring C & D & E --> F[Integrace a monitoring] %% Detaily monitoringu F --> G[Denní automatizovaný testing API] F --> H[Automatické reporty a alerty]Závěr

“Vibe coding” s využitím nejnovějších AI nástrojů představuje atraktivní způsob rychlého vývoje MVP a prototypů. Klíčem k úspěchu je však důsledné rozdělení zodpovědností mezi tři oddělené vrstvy - frontend, API a automatizační framework. Tento přístup minimalizuje čas strávený debugováním, umožňuje rychlý vývoj a usnadňuje budoucí rozšíření a údržbu.

Pro vývojáře, kteří chtějí experimentovat s tímto přístupem, je důležité mít na paměti, že nejde o kompletní náhradu tradičních vývojových metod, ale spíše o komplementární přístup vhodný zejména pro rychlý vývoj prototypů a MVP před jejich případným přepracováním do produkční kvality.

Pro zajímavost si někdy popíšeme, jak jsem vibe codingem realizoval některé služby, jako jsou například zajímaveprednasky.cz

 •  0 comments  •  flag
Share on Twitter
Published on April 04, 2025 13:05

April 2, 2025

Moderní přístup k vývoji prototypu software MVP pomocí vibe codingu

Vytvářet prototypy software (MVP) pomocí AI začíná být stále rozšířenější metoda. Jenže vibe coding, jak se nový přístup k vývoji MVP jmenuje, má své nástrahy. A nelze jej používat bezhlav - a na vechny projekty. Rychle narazíte na problém, kdy většinu času strávíte opravami kódu, který AI napsala nejasně nebo špatně. Klíčem k úspěchu je proto systémová jednoduchost a modulárnost, která umožní AI udržet si přehled v “kontextu”.

Pojdme si spolu projít zásady, které se mi za posledních pár pokusů vydestilovaly jako základ úspěchu a rychlého posunu s vibe codingem:

Hlavní princip: Modularizace a zjednodušení

Klíčem k úspěšnému vývoji pomocí vibe codingu je důsledná modularizace a zjednodušení celého procesu. Nejlepší je rozdělit vývoj do tří jasně oddělených částí:

Frontend vyvinutý pomocí no-code nástrojů - čistě pro UI/UX Minimální sada API bez business logiky - pouze pro komunikaci a přístup k datům Business logika implementovaná v automatizačním frameworku - pro skutečnou funkcionalitu systému

Tato struktura přináší několik významných výhod:

Frontend kód zůstává čistý a jednoduchý, zaměřený pouze na zobrazování UI API kód je krátký, přímočarý a snadno spravovatelný Business logika je přehledně vizualizovaná v automatizačním frameworku, což usnadňuje debuggingPraktický postup implementace1. Vývoj frontendu

Začněte výběrem vhodného no-code nástroje jako Bubble, Bolt nebo Replit. Zaměřte se výhradně na vzhled a pocit z aplikace. V této fázi ignorujte technické detaily implementace a soustřeďte se pouze na UI/UX.

Důležité tipy:

Vytvořte plně funkční frontend, který vypadá přesně tak, jak chcete Nechte si ho generovat jako statický soubor (HTML/CSS/JS) Autentizaci a volání API implementujte až později Pro hosting využijte služby jako Cloudflare, které jsou pro statické soubory zdarma2. Implementace API

Pro backend je nejlépe využít Python, který má vynikající podporu v AI nástrojích jako Cursor nebo Cline. Klíčová pravidla pro backend jsou:

Omezte počet souborů (ideálně max. 25) Limitujte délku jednotlivých souborů (max. 250 řádků) Vytvářejte jen tři typy API: Data storage API: jednoduchá CRUD rozhraní, s jasně definovanou strukturou a Swagger dokumentací. Processing API: slouží pro náročnější úkoly jako je komprese obrázků, generování videí či reportů. Držte je oddělené od datového API. Real-time API (například pro chat, video, apod.): jde o složitější úkoly, u kterých stojí za to zvážit spolupráci se specializovaným vývojářem.

A dejte si pozor na jednu věc: řada AI nástrojů má tendenci databázi propojovat přímo s kódem, veškerá napojení na databází musí jít přes endpointy API na vašem serveru, jinak vystavíte databázi světu!

Proč tyto limity? Příliš mnoho souborů a řádků kódu znamená více kontextu pro AI, vyšší náklady a více potenciálních chyb.

3. Implementace business logiky v automatizačním frameworku

Klíčovým rozdílem oproti tradičním přístupům je přesun business logiky z backend kódu do vizuálního automatizačního frameworku jako je n8n, Make, Zapier nebo PowerApps, pokud je to jen trochu možné. Především tak dostanete ověřenou funkcionalitu, jejíž fungování si můžete vizualizovat. I jako neprogramátor pak vidíte, co se s daty děje, jak a kudy putují a jak se zpracovávají. Ostatně, na propojování různých systémů je vibe coding a rychlá stavba prototypů založena - můžete se tomu vysmívat, ale je to podobné, jako v Linuxu, kde využíváte vstupně/výstupní rozhraní nejrůznějších démonů, utilit či knihoven. Jen to má líbivější kabátek a “matlačku” mezi tím dělá AI nebo klikání myší v rozhraní.

Dodržením pravidla přesunu logiky do automatizačního frameworku dosáhnete několika zásadních výhod:

Menší AI kontext: kratší a jednodušší kód znamená menší potřebu kontextu pro AI a tím i méně chyb. Úspora nákladů: frontend můžete zdarma hostovat například na Cloudflare, backendové API jsou díky jednoduchosti levnější na provoz. Snadná údržba: obchodní logika v nástrojích jako Zapier je snadno čitelná, což umožňuje rychlé změny a jasnou prezentaci týmu i klientům.Důsledky pro celkovou architekturu

Tento vibe coding přístup vede k systému složenému ze tří jasně oddělených vrstev:

Frontend (vibe coded) - zodpovědný pouze za prezentaci Backend API (vibe coded) - zodpovědný za ukládání, zpracování a komunikaci Automatizační framework - zodpovědný za business logiku a propojení všech komponent

Takto strukturovaný systém je nejen snazší vyvíjet, ale také udržovat a rozšiřovat, protože každá část má jasně definovanou zodpovědnost a rozhraní.

Testování a monitoring

Po úspěšné implementaci všech tří částí je důležité nezapomenout na testování a monitoring. Santoso doporučuje:

Vytvořit automatizovaný workflow, který denně testuje funkčnost API Implementovat pravidelné reportování a monitoring pomocí emailů nebo notifikací Využít automatizační framework i pro účely testovánígraph TD %% Hlavní bloky A[Jak správně vyvíjet MVP prototypy pomocí Vibe Codingu] --> B(Oddělení vrstev aplikace) %% Oddělení vrstev B --> C[Frontend UI - No-code nástroje] B --> D[Backend - Minimalistická API] B --> E[Obchodní logika - Automatizace] %% Frontend detaily C --> C1[Bubble / Bolt / Replit] %% Backend detaily D --> D1[Data Storage API - CRUD, Swagger] D --> D2[Processing API - Zpracování dat] D --> D3[Real-time API - Chat, Video] %% Logika detaily E --> E1[Zapier / n8n / PowerApps] %% Integrace a monitoring C & D & E --> F[Integrace a monitoring] %% Detaily monitoringu F --> G[Denní automatizovaný testing API] F --> H[Automatické reporty a alerty]Závěr

“Vibe coding” s využitím nejnovějších AI nástrojů představuje atraktivní způsob rychlého vývoje MVP a prototypů. Klíčem k úspěchu je však důsledné rozdělení zodpovědností mezi tři oddělené vrstvy - frontend, API a automatizační framework. Tento přístup minimalizuje čas strávený debugováním, umožňuje rychlý vývoj a usnadňuje budoucí rozšíření a údržbu.

Pro vývojáře, kteří chtějí experimentovat s tímto přístupem, je důležité mít na paměti, že nejde o kompletní náhradu tradičních vývojových metod, ale spíše o komplementární přístup vhodný zejména pro rychlý vývoj prototypů a MVP před jejich případným přepracováním do produkční kvality.

Pro zajímavost si někdy popíšeme, jak jsem vibe codingem realizoval některé služby, jako jsou například zajímaveprednasky.cz

 •  0 comments  •  flag
Share on Twitter
Published on April 02, 2025 17:00

March 28, 2025

Deset knih o současné politice, ekonomice a technologiích na jaro 2025

Připravil jsem výběr knih o současné politice, ekonomice a technologiích pro letošní jaro, toto je dávka anglických knih. České budou příležitostně následovat.

Max Chafkin – The Contrarian

Max Chafkin, americký novinář časopisu Bloomberg Businessweek, zpracoval biografii Petera Thiela, miliardáře a podporovatele J. D. Vance, který hraje významnou roli v propojování techno-utopismu a kulturní alternativní pravice v Republikánské straně. Kniha “The Contrarian” popisuje vývoj Thielovy pravicové filozofie, příběh vzniku PayPalu a jeho počáteční rozepře s Elonem Muskem, i jeho postupně se vyvíjející názory po 11. září a finanční krizi.

Text se také zabývá založením datové společnosti Palantir a způsobem, jakým Thiel naznačoval, že technologie jeho společnosti byla zodpovědná za dopadení Usámy bin Ládina, což jí poskytlo podporu mezi obrannými resorty. Pro čtenáře se zájmem o propojení technologického sektoru a politiky poskytuje kniha kontext pro pochopení ideologických základů současného techno-kapitalismu a jeho politických aspirací.

Kate Conger a Ryan Mac – Character Limit

Kate Conger a Ryan Mac, zkušení technologičtí novináři, napsali podrobnou knihu o Elonu Muskovi a jeho působení v Twitteru, který transformoval na platformu X. “Character Limit” dokumentuje Muskovu přestavbu této sociální sítě, založeno na mnoha zdrojích z prostředí společnosti.

Kniha popisuje Muskův manažerský přístup: propouštění zaměstnanců a následné pokusy znovu najmout lidi, kteří se ukázali jako potřební; důraz na úspory, které nakonec vedly k nákladnějším selháním; odmítání platit účty; a ochota prohrávat soudní spory, protože náklady jsou v jeho pohledu nižší než změna kurzu. Pro ty, kdo sledují globální technologický sektor a jeho vliv na společnost, poskytuje kniha vhled do řízení jedné z největších sociálních platforem a stylu vedení významného technologického podnikatele.

Helen Thompson – Disorder

Helen Thompson, profesorka z Cambridge a autorka podcastů, napsala knihu “Disorder”, která zkoumá příčiny obratu k neliberalismu a nacionalismu po nástupu Trumpa a po brexitu. Kniha je rozdělena do tří částí - první se zabývá rolí energetiky v utváření geopolitiky od druhé světové války; druhá finančními trhy a změnami v širší globální ekonomice; a třetí zkoumá povahu demokracie a reakce vlád na problémy způsobené prvními dvěma aspekty.

Thompsonová využívá přímý styl s širokými soudy, které ne vždy obstojí. Někteří kritici jí vytýkali to, co považují za chyby v druhé části, zejména ohledně eurozóny a její reakce na finanční krizi. I s těmito výhradami však kniha obsahuje informace a myšlenky z úhlu, který jiné publikace na tato témata nepokrývají. První část o energetice je obzvláště propracovaná a poskytuje hodnotný vhled do vztahu mezi energetikou a globální politikou. Pro čtenáře se zájmem o strukturální faktory ovlivňující současnou politickou nestabilitu poskytuje kniha alternativní pohled oproti analýzám zaměřeným primárně na jednotlivé politické osobnosti.

Nicole Hemmer – Partisans

Nicole Hemmer, americká historička a mediální odbornice, nabízí v knize “Partisans” pohled na americkou politiku 90. let, kdy se pravicový posun republikánů stal zřetelnějším. Zaměřuje se především na tři osobnosti: Rushe Limbaugha, rozhlasového moderátora, který ovlivnil tón moderního konzervatismu; Pata Buchanana, jehož neúspěšné prezidentské kandidatury předznamenaly v některých ohledech Trumpa; a Newta Gingricha, který jako předseda Sněmovny reprezentantů změnil normy formální washingtonské politiky.

Kniha popisuje transformaci politického diskurzu v USA, který se postupně posouval od umírněného středu k více partyzánské rétorice a taktikám. Pro evropské čtenáře poskytuje kontext toho, jak se změnila povaha amerického politického dialogu, což následně ovlivnilo i mezinárodní politické prostředí. Text pomáhá vysvětlit kořeny současné polarizace americké politické scény.

Maggie Haberman – Confidence Man

Maggie Haberman, novinářka The New York Times a držitelka Pulitzerovy ceny, napsala komplexní biografii Donalda Trumpa “Confidence Man”, která sleduje celou jeho kariéru až po konec prvního prezidentského období. Habermanová strávila roky reportováním o Trumpovi a získala Pulitzerovu cenu v roce 2018 za své zpravodajství. Trump se na ni zaměřoval, což se stalo součástí příběhu knihy.

Informativní části knihy popisují jeho ranou kariéru, kdy získával peníze od státních vlád na financování svých velkolepých budov, a jeho pokusy proniknout do kasinového byznysu. Kniha předkládá pohled na Trumpa jako na stárnoucího bosse v mafiánském stylu, což odráží prostředí, v němž se pohyboval. Pro čtenáře zajímající se o politickou ekonomii vztahů mezi byznysem a státní mocí nabízí tato kniha cenný vhled do fungování amerického podnikatelského a politického prostředí.

Quinn Slobodian – Crack-Up Capitalism

Quinn Slobodian, kanadský historik, který se věnuje studiu neoliberalismu (definovaného přesněji než mnozí, kteří tento výraz používají), napsal knihu “Crack-Up Capitalism” o vztahu libertarianismu a demokracie. Sleduje, jak se místa jako Hong-Kong, Singapur a Dubaj vyvinula jako centra kapitalismu s omezenou demokracií.

Autor analyzuje, jak tyto modely ovlivnily další státy, jako je Čína, pro kterou je Hongkong vzorem pro jejich rozvoj nových měst. Zároveň ukazuje, jak se tyto modely stávají zajímavými pro západní myslitele - jak z hlediska investic do těchto center, tak i zřizování nových ekonomických zón, ve kterých platí odlišná pravidla, například v oblasti daní. Pro čtenáře se zájmem o globální ekonomické trendy a vztah mezi kapitalismem a demokracií poskytuje kniha pohled na alternativní modely ekonomického uspořádání.

Ivan Krastev a Stephen Holmes – The Light That Failed

Ivan Krastev, bulharský politolog, a Stephen Holmes, americký právní teoretik, napsali knihu “The Light That Failed” během prvního Trumpova funkčního období. Tato kniha pracuje s konceptem imitace a způsoby, jakými tento proces ovlivnil politický vývoj ve východní Evropě, Rusku a později i na Západě.

První část se zaměřuje na zavádění modelů západní liberální demokracie ve východoevropských státech po rozpadu Varšavské smlouvy a na reakce, které to vyvolalo. Druhá část se soustředí na Rusko a Putinův přechod k odlišnému modelu vládnutí, který zdůvodňoval poukazováním na nedostatky Západu. Závěrečná část analyzuje Trumpovo přebírání některých prvků východních politických stylů a jejich dopad na Západ. Pro čtenáře zajímající se o globální politické trendy a vztahy mezi Východem a Západem nabízí kniha strukturovaný pohled na vývoj politických systémů v posledních desetiletích.

Svetlana Alexijevič – Doba z druhé ruky (Second-Hand Time)

Svetlana Alexijevič, běloruská nositelka Nobelovy ceny, vytvořila v knize “Doba z druhé ruky” dílo dokumentující postsovětské období v Rusku. Její metoda spočívá v rozhovorech se stovkami lidí, které pak sestavuje do vyprávění s minimálními autorskými zásahy.

Kniha představuje pocity lidí, kteří zažili rozpad sovětského systému, krátkou naději na změnu a následné zklamání. Pro západního čtenáře je zajímavý pocit osudovosti, který mnozí dotazovaní vyjadřují - pocit, že Rusko není připraveno na určité formy společenského uspořádání: “V Rusku se za pět let může změnit všechno, ale za dvě stě let se nezmění nic.” Pro ty, kdo se zajímají o ruskou společnost a její vývoj po rozpadu SSSR, poskytuje kniha vhled do myšlení běžných Rusů během tohoto období.

Paul Lendvai – Orbán

Paul Lendvai, maďarsky narozený bývalý novinář Financial Times, který pokrýval region střední Evropy, napsal první úplnou biografii Viktora Orbána přeloženou do angličtiny. Kniha vypráví příběh o tom, jak se Orbán poprvé dostal do povědomí jako mladý protikomunistický protestující během povstání v roce 1989, založil Fidesz jako liberální stranu a stal se poprvé premiérem v roce 1998.

Autor popisuje, jak se během jeho prvního funkčního období projevily jeho sklony k centralizaci moci, ale protože neměl většinu, byl omezen v prosazování změn. Když se v roce 2010 vrátil k moci, měl díky maďarskému volebnímu systému super-většinu, která mu umožnila změnit ústavu a postupně přetvořit politický systém, včetně soudnictví a mediálního prostředí. Pro čtenáře, kteří sledují vývoj politických systémů ve střední Evropě, nabízí kniha pohled na transformaci jednoho z důležitých politiků regionu.

Rick Perlstein – Kronika amerického konzervatismu (Chronicle of American Conservatism)

Rick Perlstein, americký historik a politický komentátor, vytvořil čtyřdílnou sérii mapující proměnu Republikánské strany z elitní východopobřežní formace na stranu získávající jih USA svým pravicovým obratem. Série začíná knihou “Before the Storm” o kandidatuře Barryho Goldwatera v roce 1964, pokračuje “Nixonland” o vzestupu prezidenta Nixona, a končí dvěma svazky o cestě Ronalda Reagana k moci.

Série nabízí detailní popis způsobů, jakými pravice budovala lidová hnutí kolem kulturních a rasových témat, jako bylo busing (doprava dětí do škol za účelem rasové integrace) či bytová diskriminace, a rostoucí rolí evangelikálních křesťanů v Republikánské straně. Pro čtenáře zajímající se o kořeny současné americké politické polarizace poskytuje toto dílo kontext, který pomáhá pochopit, jak se konzervativní hnutí postupně transformovalo do své dnešní podoby.

 •  0 comments  •  flag
Share on Twitter
Published on March 28, 2025 17:00

MCP získává širokou podporu včetně OpenAI a Microsoftu

V posledních pár dnech se doslova strhla lavina novinek okolo MCP, neboli Model Context Protocolu. Nově ji bude podporovat také OpenAI, Microsoft a objevila se v celé řadě dalších služeb. Což je pro šíření tohoto standardu důležité. Takže si dejme sumář novinek! Jen pro jistotu upozorňuji, že článek je spíše pro lidi, kteří se chtějí hrabat maličko pod kapotou, MCP servery jsou rozšíření promptování, které má smysl dělat, když chcete napojovat nějaká svoje (či i cizí) data…

MCP jako standardizovaná vrstva pro komunikaci mezi jazykovými modely a nástroji třetích stran dostala v uplynulém týdnu masivní podporu napříč desítkami platforem. Díky ní je možné celou řadu služeb online propojit s AI modelem a nevyužívat jen “stará” data, která se do modelu dostala při učení a ani se do něj dostat nemusely. Můžete tak připojit i svoje či jiná uživatelská data. MCP sjednocuje komunikaci napříč různými aplikacemi a službami – ať už jde o cloudová úložiště, databáze, návrhové nástroje nebo interní firemní systémy.

Pojďme se pro instpiraci podívat na nejdůležitější napojení MCP z poslední doby.

✨ OpenAI přijímá standard konkurence

Hned v úvodu je třeba zmínit, že největší zpráva přišla od OpenAI, která oznámila podporu MCP napříč svými produkty. Sam Altman osobně potvrdil, že lidé MCP milují a OpenAI chce rozšířit podporu tohoto protokolu. MCP je už nyní dostupný v SDK pro agent a brzy přibude také podpora pro desktopovou aplikaci ChatGPT a responses API. To je významný krok, protože OpenAI přijímá standard původně vyvinutý konkurenční společností Anthropic. MCP se může stát univerzálním standardem pro interakce mezi AI a externími nástroji. Teď to chce ještě podporu v DeepSeek a Google Gemini, u číňanů bych viděl problém spíše v času, než že by nechtěli a Google snad nenapadne pro Gemini dělat něco vlastního…

Microsoft také přináší MCP do svého portfolia

Shinya Yanagihara oznámil integraci MCP do Microsoft Copilot Studio, vývojářské platformy pro tvorbu vlastních Copilot chatbotů a asistentů. Tato implementace zjednodušuje integraci AI aplikací a agentů v prostředí Microsoft. Zároveň došlo k integraci MCP s Microsoft Azure AI Foundry, cloudovou platformou pro vývoj AI řešení, což umožňuje AI modelům dynamicky přistupovat k nástrojům a informacím. Vysvětlení je tady prosté, Microsoft používá OpenAI a jeho podpora MCP se tedy promítla, ale samozřejmě to kluci mohli zablokovat, naštěstí to neudělali a to je pro Azure uživatele důležité.

🔌 Zapier: AI konečně ovládá 8000+ aplikací

Jedním z nejvýraznějších oznámení týdne je integrace MCP do platformy Zapier, což je populární nástroj pro automatizaci workflow. Díky tomu získávají modely přístup ke 30 000+ akcím napříč více než osmi tisíci aplikacemi – bez nutnosti psát jakékoliv API volání. Detailní popis spolu s implementací a také u konkurenční služby Make.com jsme si již přinesli, takže další podívání vynecháme.

🐫 Camel-AI: Toolkit pro pokročilé agentní systémy

Platforma Camel AI, zaměřená na vývoj multiagentních architektur, uvedla MCP Toolkit, který umožňuje propojit agenty s externími nástroji bez potřeby budovat vlastní konektory. CAMEL tím zásadně rozšiřuje své možnosti a agenti se díky MCP stávají skutečně „hands-on“ – mohou manipulovat s reálnými systémy. Vývojáři CAMELu navíc ohlásili integraci s AgentOps, což je platforma pro orchestraci agentů v produkčním nasazení.

🧠 LiteLLM a univerzální proxy pro modely

Další zajímavou možnost skýtá podpora MCP v projektu LiteLLM, který funguje jako sjednocující rozhraní pro různé LLM (Claude, Mistral, OpenAI aj.). Nově může LiteLLM fungovat jako MCP bridge, tedy jakýsi překladač, který zpřístupňuje MCP nástroje všem podporovaným modelům.

To otevírá dveře k „agent-agnostickému“ vývoji – můžete nasadit nástroj jednou a použít ho v jakémkoliv prostředí, které LiteLLM podporuje.

📦 Box, Telegram, Figma, iOS – a další “drobnosti”

V rámci MCP boomu jsme zaznamenali i následující novinky:

Box (resp komunita kolem něj) předvedl ukázku MCP serveru s podporou modelu Claude od Anthropic – AI může přímo spravovat soubory v cloudovém úložišti. Telegram MCP server umožňuje, aby agenti AI posílali zprávy, čtou historii chatu nebo spravovali skupiny. Cursor x Figma: Projekt „[Talk to Figma(https://github.com/sonnylazuardi/curs...)]“ umožňuje AI upravovat návrhy ve Figmě čistě na základě přirozeného jazyka – bez kódu. iOS Simulator MCP: Vývojáři mohou nyní používat agenty ke spuštění a testování aplikací v iOS simulátoru. Skvělé pro QA scénáře. Neon Database: nativní podpora MCP a zároveň napojení na Azure AI Agent Service – vývoj komplexních agentních systémů s přímým přístupem k databázím je o krok blíž.🛠 Haystack, Cursor, Firecrawl, Fleek, Brex…

Tím výčet nekončí:

Haystack AI implementuje MCP pro rozšiřování pipeline o externí nástroje. Firecrawl ve spojení s MCP umožňuje AI klonovat weby jen na základě textového zadání. Fleek vytvořil MCP plugin pro ElizaOS, čímž umožňuje frameworkům AI přístup ke všem REST API bez potřeby psát vlastní kód. Brex získal vlastní MCP server, díky němuž může Claude nebo jiný model zpracovávat vaše účetní výdaje. Opatrně! (ale u nás se Brex asi moc nepoužívá)🌀 Spiral MCP Server pro Spiral Computer

Jason Liu publikoval Spiral MCP Server, implementaci Model Context Protocol v Pythonu pro Spiral Computer od společnosti Every (nástroj pro interaktivní práci s dokumenty a informacemi). Tento server poskytuje čtyři MCP nástroje (list_models, generate, atd.), zpracovává text, soubory a URL adresy s chytrou extrakcí článků a podporuje asynchronní operace.

🦗 Rhino/Grasshopper MCP server

Nikhil Bang sdílel ukázku svého MCP serveru pro Rhino/Grasshopper, populární platformu pro 3D modelování a parametrický design využívanou architekty a designéry. Server umožňuje propojit a ovládat Rhino a Grasshopper pomocí Claude LLM. Toto propojení otevírá nové možnosti pro automatizaci návrhových procesů v oblasti 3D modelování a generativního designu.

🕹️ KiCad MCP Server: AI v elektronickém designu

KiCad MCP Server je další specializovanou implementací, která umožňuje interakci s KiCad, open-source softwarem pro návrh elektronických schémat a plošných spojů. Uživatelé mohou pomocí přirozeného jazyka zobrazovat projekty, analyzovat návrhy PCB, spouštět kontroly návrhových pravidel a vizualizovat PCB layouty.

A vznikla také celá řada serverů, které nabízejí odkazy na nejrůznější MCP služby, vygooglujete je snadno, například Awesome MCP Servers

Tak šťastné experimentování.

 •  0 comments  •  flag
Share on Twitter
Published on March 28, 2025 01:00

March 27, 2025

Zapier a Make MCP - Propojte AI asistenty s externími aplikacemi

Oblíbená automatizační služba Zapier a její (kdysi český!) konkurent Make.com nedávno vydala podporu MCP (Model Communication Protocol), která umožňuje propojení AI asistentů s tisíci aplikací v ekosystému těchto služeb. Zapier i Make.com je oblíbený nástroj na “bezprogramátorské” propojování rozdilných aplikací, umožňuje vám například vaše nové tweety uložit do Google Docs a další podobné věci včetně těch velmi seriosních. Služba Zapier MCP je primárně zaměřena na Cursor - vývojářský nástroj s integrovanou AI - ale naznačuje širší možnosti propojení AI asistentů s externími službami. Make.com zaměření neudává.

MCP server funguje jako prostředník mezi AI asistentem a aplikacemi třetích stran. Díky tomuto řešení mohou AI asistenti interagovat s externími službami bez nutnosti složité integrace API. Podle Zapier jde o “nejrychlejší způsob, jak propojit vašeho AI asistenta s tisíci aplikací”. A pokud nevíte, co je to MCP a k čemu a jak jej použít, přečtěte si článek zde.

Integrace externích služeb do AI pomocí MCP serverů: Zapier a Make.comCo je MCP (Model Communication Protocol)?

Model Communication Protocol (MCP) představuje standardizovaný způsob komunikace mezi AI asistenty a externími službami. Tento protokol umožňuje AI agentům, jako jsou například nástroje založené na Cursor, vykonávat akce v reálném světě prostřednictvím externích aplikací a služeb. Díky MCP serverům mohou vývojáři výrazně rozšířit možnosti AI asistentů bez nutnosti psát složité API integrace pro každou službu zvlášť.

MCP ekosystém se v roce 2025 rychle rozvíjí, přičemž dva hlavní poskytovatelé - Zapier a Make.com - nabízejí své implementace MCP serverů, které spojují svět umělé inteligence s tisíci existujícími aplikacemi.

Zapier MCP: Jednoduchá cesta k integraci

Zapier, známý automatizační nástroj, nedávno představil svůj MCP server, který umožňuje AI asistentům využívat rozsáhlý ekosystém Zapieru s minimálním nastavením. Toto řešení je vhodné pro rychlé nasazení a pro uživatele, kteří preferují služby typu SaaS bez nutnosti správy vlastní infrastruktury.

Instalace a nastavení Zapier MCP Získání přístupového URL: Navštivte https://zapier.com/mcp Klikněte na tlačítko “Get Started” Zkopírujte vygenerovaný unikátní URL, který slouží jako endpoint pro MCP službu Konfigurace v Cursor: Otevřete nastavení v aplikaci Cursor: Settings -> MCP -> Add New MCP Vložte zkopírovaný URL do pole “url” v konfiguraci: {"mcpServers": { "Zapier Actions MCP": { "url": "your_url" }}} Nastavení akcí: Vraťte se na webovou stránku Zapier a klikněte na “Edit MCP Actions” Zde můžete vybrat a nastavit služby, které chcete zpřístupnit vašemu AI asistentovi Možnosti Zapier MCP

Zapier MCP umožňuje integrovat širokou škálu služeb, včetně:

E-mailových služeb (Gmail, Outlook) Generování obrázků Nástrojů pro projektový management (Trello, Asana) Kalendářových aplikací Notifikačních systémů

Je však důležité poznamenat, že podle zpětné vazby uživatelů z března 2025 ne všechny integrace fungují bezproblémově. Zapier MCP je stále v beta fázi a některé služby mohou vykazovat problémy s kompatibilitou.

Make.com MCP Server: Open-source alternativa

Make.com (dříve Integromat) nabízí alternativní implementaci MCP serveru, která je k dispozici jako open-source projekt. Toto řešení je vhodné pro vývojáře, kteří preferují větší kontrolu nad infrastrukturou a možnost vlastního hostování. Znamená to nicméně, že je nutno provozovat Node.js.

Instalace a nastavení Make MCP serveru Prerekvizity: Node.js MCP klient (například Claude Desktop App) Make API klíč s oprávněními scenarios:read a scenarios:run Instalace serveru: # Klonování repositářegit clone https://github.com/integromat/make-mc... # Instalace závislostícd make-mcp-servernpm install Konfigurace pro Claude Desktop: Otevřete nebo vytvořte konfigurační soubor claude_desktop_config.json Přidejte následující konfiguraci do sekce “mcpServers”: {"mcpServers": { "make": { "command": "npx", "args": ["-y", "@makehq/mcp-server"], "env": { "MAKE_API_KEY": "", "MAKE_ZONE": "", "MAKE_TEAM": "" } }}} Konfigurace prostředí: MAKE_API_KEY: API klíč generovaný v profilu Make.com MAKE_ZONE: Zóna, kde je vaše organizace hostována (např. eu2.make.com) MAKE_TEAM: ID týmu, které lze najít v URL stránky týmu Funkce Make MCP serveru

Make MCP server nabízí podobné možnosti jako Zapier, ale s několika významnými rozdíly:

Vlastní hostování: Plná kontrola nad infrastrukturou a daty. Propojení s On-Demand scénáři: Automatické rozpoznání a zpřístupnění všech scénářů s “On-Demand” plánováním. Strukturovaný výstup: Vrací výstup scénářů jako strukturovaný JSON, což umožňuje AI asistentům správně interpretovat výsledky. Bidirectional komunikace: Možnost vytvořit obousměrnou komunikaci mezi AI asistentem a existujícími automatizačními workflows.Praktické využití MCP serverů pro vývojáře1. Rozšíření možností AI nástrojů

MCP servery umožňují AI nástrojům překročit hranice textové komunikace a provádět akce v reálném světě. Například:

Datová analytika: AI může analyzovat data z externích zdrojů a vizualizovat je Workflow automatizace: Spouštění komplexních workflow na základě konverzace s uživatelem E-mailová komunikace: Odesílání e-mailů s přílohami přímo z AI rozhraní Správa kalendáře: Plánování schůzek a událostí2. Vytváření vlastních integračních scénářů

Pro vývojáře je nejzajímavější možnost vytváření vlastních integračních scénářů:

V Make.com vytvořte nový scénář s “On-Demand” plánováním Definujte vstupní parametry, které bude AI poskytovat Nakonfigurujte workflow s potřebnými akcemi Určete strukturu výstupních dat Po připojení MCP serveru bude tento scénář automaticky dostupný pro AI asistenty3. Řešení limitací a výzev

Při práci s MCP servery je dobré mít na paměti několik omezení:

Latence: Volání externích služeb může způsobit zpoždění v interakci s AI Rate limiting: Některé služby mohou omezovat počet požadavků Zabezpečení: Zvažte bezpečnostní implikace propojení AI s externími službami Zpracování chyb: Implementujte robustní mechanismy pro zpracování chybSrovnání Zapier MCP a Make.com MCP Funkce Zapier MCP Make.com MCP Instalace Cloudová služba, bez instalace Self-hosted, vyžaduje Node.js Počet služeb Tisíce Stovky Přizpůsobitelnost Omezená Vysoká Open-source Ne Ano Zabezpečení Spravované Zapierem Ve vlastní režii Cena Podle plánu Zapier Podle plánu Make.com + náklady na hosting Význam pro vývojáře

Pro vývojáře pracující s AI asistenty představuje MCP potenciálně významný krok k rozšíření schopností těchto nástrojů. Místo omezení se na pouhé generování kódu by AI asistenti mohli v budoucnu přímo interagovat s vývojářskými nástroji, databázemi a cloudovými službami. Což je přesně to, co MCP umožňuje. A prostup do jiných ekosystému přes Zapier nebo Make.com by bylo velmi vítané, nemuseli byste čekat, až tyto služby uvolní (a pokud vůbec) svoje MCP!

Tato technologie by mohla výrazně zvýšit efektivitu vývojářů, kteří AI nástroje aktivně využívají, a posunout možnosti automatizace na novou úroveň. Zatím je však potřeba počítat s možnými omezeními a postupným vývojem této funkcionality.

Přiznám se, že službu jsem zatím zkoušel jen v Cursor, ne například v Claude Code, které také MCP podporuje. Výslovně není jiný software zmíněn, ale také by neměly být vážné potíže. Sám jsem se službou Zapier.com měl řadu potíží, komunikace s MCP haprovala a tak bych doporučil zatím počkat, než se vše usadí, pokud nejste vysloveně experimentátoři. Dobrý směr to ale je, protože nyní se začnou jistě rychle přidávat ostatní propojovatelé, jako Make.com…

 •  0 comments  •  flag
Share on Twitter
Published on March 27, 2025 01:00