Patrick Zandl's Blog: Marigold.cz, page 5
June 10, 2025
OpenAI snížila cenu modelu o3 o 80 % a představila o3-Pro
OpenAI oznámila výrazné snížení ceny svého modelu o3 o 80 procent spolu s uvedením nové varianty o3-Pro. Model o3 nyní stojí 2 dolary za milion vstupních tokenů a 8 dolarů za milion výstupních tokenů, zatímco dříve byla cena 10 a 40 dolarů. Současně byla představena výkonnější varianta o3-Pro.
Nový model o3-Pro je dostupný zatím jen přes API, tedy ne přes aplikaci nebo ChatGPT.com. Cena za použití je 20 dolarů za vstupní a 80 dolarů za výstupní tokeny, což představuje 87procentní snížení oproti předchozímu modelu o1-Pro. I tak je to ale dost vysoká cena. Tomu odpovídají smíšené reakce vývojářů a uživatelů. Zatímco mnozí oceňují zvýšenou dostupnost, kritici poukazují na stále vysoké ceny ve srovnání s konkurencí.
Technické pozadí snížení cenSnížení ceny modelu o3 bylo dosaženo optimalizací inference stacku, systému zpracovávajícího požadavky na model. OpenAI zdůraznila, že se jedná o stejný model bez jakýchkoliv úprav výkonu - nebyly tedy použity techniky jako destilace nebo kvantizace, které by mohly snížit kvalitu výstupů. Tato optimalizace představuje významný technologický pokrok, když si uvědomíme, že původní testy modelu na benchmarku ARC-AGI stály OpenAI stovky tisíc dolarů za jeden běh.
Inference stack optimalizace zahrnuje zlepšení způsobu, jakým jsou požadavky zpracovávány na serverové infrastruktuře, aniž by byl ovlivněn základní model nebo jeho schopnosti. Tento přístup umožňuje společnosti nabídnout stejnou kvalitu služby za výrazně nižší cenu, což je klíčové pro konkurenceschopnost na trhu jazykových modelů.
Specifikace a možnosti o3-ProModel o3-Pro využívá stejný základní model jako standardní o3, ale s rozšířenými nástroji a delším časem na “přemýšlení”. Mezi jeho hlavní funkce patří podpora pro Python, prohlížení webu, zpracování obrazových vstupů, volání funkcí a strukturované výstupy. Model je navržen pro řešení složitých problémů a některé požadavky mohou trvat několik minut, proto OpenAI zavedla nový background mode v Responses API pro předcházení timeoutům.
V benchmarkových testech dosahuje o3-Pro 64 % úspěšnosti ve srovnání se základním modelem o3 podle hodnocení lidských testerů. Nejvyšší výkon vykazuje v oblastech matematiky, kompetitivního kódování, vědeckých úloh a komplexního psaní. Model je dostupný jako ‘o3-pro-2025-06-10’ v Responses API a je optimalizován pro agentic tool calling a instruction following.
Srovnání s konkurencí Model Vstupní tokeny ($/1M) Výstupní tokeny ($/1M) Poskytovatel o3 2 8 OpenAI o3-Pro 20 80 OpenAI GPT-4.1 2 8 OpenAI GPT-4o vyšší než o3 vyšší než o3 OpenAI Gemini 2.5 Pro konkurenční cena konkurenční cena Google Deepseek R1 nižší než o3 nižší než o3 Deepseek💡 Agentic tool calling je schopnost AI modelu samostatně rozhodovat o tom, které externí nástroje nebo funkce použije k vyřešení konkrétního úkolu, a následně je aktivně volat v průběhu zpracování požadavku. Na rozdíl od tradičního function callingu, kde model pouze navrhne použití funkcí, agentic přístup umožňuje modelu vytvořit kompletní plán řešení, postupně volat různé nástroje podle potřeby, vyhodnocovat jejich výsledky a na základě toho upravovat svou strategii. Model tak může například při analýze dat automaticky načíst soubor, provést výpočty pomocí matematických funkcí, vyhledat dodatečné informace online a výsledky zkombinovat do finální odpovědi - vše bez nutnosti lidského zásahu mezi jednotlivými kroky.
Přestože OpenAI snížila ceny, model o3 zůstává dražší než některé alternativy, zejména open-source řešení jako Deepseek R1. Cena o3 je nyní shodná s GPT-4.1 za vstupní tokeny, ale výrazně levnější než GPT-4o, což ho činí atraktivní volbou pro kódování a úkoly vyžadující agentic tool calling.
Reakce vývojářské komunityVývojáři a malé firmy reakci na snížení cen přivítali pozitivně. Mnoho z nich uvedlo, že nižší ceny jim umožní více experimentovat s modelem pro úkoly, které byly dříve finančně nedostupné, jako je shrnování obsahu nebo pokročilé kódování. Tvůrci služeb jako Websim AI nebo Cursor již oznámili plány na integraci modelu o3 do svých nástrojů.
Kritické hlasy však poukazují na několik problémů. Uživatelé na platformách jako Reddit označují model o3 za “přeceněný” vzhledem k jeho výkonu a upozorňují, že i po snížení zůstává dražší než konkurenční řešení. Někteří skeptici se ptají, zda snížení ceny neovlivnilo kvalitu modelu, ačkoliv OpenAI toto popírá.
Strategické důvody změnSnížení cen je interpretováno jako reakce na rostoucí konkurenční tlak ze strany modelů jako Gemini 2.5 Pro od Google DeepMind a Claude Opus 4 od Anthropic. Trh s velkými jazykovými modely se rychle vyvíjí a cenová konkurenceschopnost se stává klíčovým faktorem pro udržení tržního podílu.
OpenAI čelí také tlaku ze strany open-source alternativ, které nabízejí podobné schopnosti za výrazně nižší ceny. Deepseek R1 a další open-weight modely představují vážnou konkurenci, zejména pro nákladově citlivé projekty a startupy s omezenými rozpočty.
Uvedení o3-Pro lze chápat jako snahu diferencovat produktovou řadu a nabídnout prémiové řešení pro náročné úkoly, zatímco standardní o3 se stává dostupnějším pro běžné použití. Tato strategie následuje model freemium, kde základní funkcionalita je cenově dostupná a pokročilé funkce jsou zpoplatněny premium cenou.
Technické využití a doporučeníOpenAI doporučuje model o3 především pro kódování, kde nyní nabízí stejnou cenu za token jako GPT-4.1, ale s lepším výkonem. Model je také vhodný pro úkoly vyžadující agentic tool calling, function calling a přesné následování instrukcí. Optimalizovaný inference stack činí o3 praktickou volbou pro produkční nasazení, kde byla dříve cena překážkou.
Model o3-Pro je určen pro komplexní problémy vyžadující delší čas na zpracování a vyšší výpočetní výkon. Jeho použití je ekonomicky opodstatněné pro kritické úkoly v oblasti výzkumu, pokročilého kódování a vědeckých aplikací, kde je kvalita výstupu důležitější než rychlost nebo cena.
Background mode v Responses API řeší praktický problém s timeouty při používání o3-Pro, což umožňuje zpracování komplexních požadavků bez rizika přerušení spojení. Tato funkce je klíčová pro integraci modelu do produkčních systémů, kde spolehlivost je prioritou.
Pro vývojáře je snížení cen za model o3 velmi atraktivní, protože je obecně chápán jako jeden z nejlepších modelů a pro řadu úloh by byl primární volbou, kdyby nebyl tak drahý - a to se nyní mění.
June 9, 2025
Mistral AI představil Magistral, svůj první model pro logické uvažování
Mistral AI pÅedstavil Magistral, svůj prvnà model pro logické uvažovánÃ
Francouzská spoleÄnost Mistral AI uvedla svůj prvnà specializovaný model pro logické uvažovánà nazvaný Magistral. Model je dostupný ve dvou variantách - open-source verzi Magistral Small s 24 miliardami parametrů a komerÄnà verzi Magistral Medium.
Magistral je zamÄÅen na transparentnà uvažovánà v mnoha jazycÃch a dosahuje 73,6% úspÄÅ¡nosti v matematickém benchmarku AIME2024. Model pÅinášà údajnÄ desetkrát vyššà rychlost (tvrdà Mistral) zpracovánà než konkurence a cÃlà na profesionálnà využità v regulovaných odvÄtvÃch, kde je nutná sledovatelnost rozhodovacÃch procesů.
Technické parametry a výkonnostMagistral Small obsahuje 24 miliard parametrů a je dostupný pod licencà Apache 2.0 pro volné použitÃ. Jen pro jistoti pÅipomÃnám, že váhy vÄtÅ¡Ãho modelu nejsou otevÅenÄ vydány a to je velká Å¡koda.
KomerÄnà verze Magistral Medium nabÃzà vyššà výkonnost pro podnikové nasazenÃ. Na matematickém benchmarku AIME2024 dosahuje Magistral Medium 73,6% úspÄÅ¡nosti pÅi jednotlivém pokusu a 90% pÅi vÄtÅ¡inovém hlasovánà ze 64 pokusů. Menšà model Magistral Small dosahuje 70,7% a 83,3% v týchž testech.
Srovnánà s konkurencà ukazuje nadprůmÄrné výsledky napÅÃÄ různými benchmarky. Na testu GPQA Diamond dosahuje Magistral Medium 70,8% úspÄÅ¡nosti, na LiveCodeBench 59,4% a na Aider Polyglot 47,1%. Model pÅekonává nÄkteré etablované modely jako GPT-4 nebo Claude v urÄitých kategoriÃch testů. Tady je pár podrobnostÃ, ale poÄkal bych si na nezávislé specializované testy.
[image error]
VÃcejazyÄné schopnostiMagistral je navržen pro nativnà uvažovánà v různých jazycÃch bez nutnosti pÅekladu do angliÄtiny. Model dokáže udržet vysokou kvalitu logického uvažovánà v angliÄtinÄ, francouzÅ¡tinÄ, Å¡panÄlÅ¡tinÄ, nÄmÄinÄ, italÅ¡tinÄ, arabÅ¡tinÄ, ruÅ¡tinÄ a zjednoduÅ¡ené ÄÃnÅ¡tinÄ. Tato schopnost pÅedstavuje pokrok oproti souÄasným modelům, které Äasto degradujà pÅi práci v jiných jazycÃch než angliÄtinÄ.
ÅetÄzec myÅ¡lenà CoT (chain-of-thought) funguje pÅirozenÄ napÅÃÄ globálnÃmi jazyky a alfabety, což umožÅuje uživatelům sledovat rozhodovacà proces modelu v jejich rodném jazyce. Pro uživatele v Äesku to znamená možnost budoucà podpory ÄeÅ¡tiny, aÄkoliv ÄeÅ¡tina nenà mezi explicitnÄ podporovanými jazyky zmÃnÄna.
Rychlost a optimalizaceFunkcionalita Flash Answers v chatovacà aplikaci Le Chat umožÅuje Magistral Medium údajnÄ dosahovat až desetkrát vyššà rychlosti zpracovánà tokenů než vÄtÅ¡ina konkurence. Tato optimalizace Äinà model použitelným pro aplikace vyžadujÃcà odpovÄdi v reálném Äase a umožÅuje zpÄtnou vazbu od uživatelů ve velkém mÄÅÃtku.
Rychlostnà srovnánà s ChatGPT ukazuje významnou pÅevahu Magistralu v chatovacÃm rozhranà Le Chat. Model je také dostupný pÅes API na platformÄ La Plateforme, což umožÅuje integraci do vlastnÃch aplikacÃ.
Průmyslové aplikaceMagistral cÃlà na profesionály v právnictvÃ, financÃch, zdravotnictvà a veÅejné správÄ. Model poskytuje sledovatelné uvažovánÃ, které splÅuje požadavky na âcomplianceâ - tedy regulatornà soulad s podmÃnky v odvÄtvÃ. Každý závÄr lze zpÄtnÄ vysledovat pÅes logické kroky, což poskytuje auditovatelnost pro prostÅedà s vysokými nároky na spolehlivost.
Transparentnost rozhodovacÃho procesu je klÃÄová pro odvÄtvÃ, kde jsou rozhodnutà podrobována regulatornÃmu dohledu. Model umožÅuje verifikaci postupu uvažovánÃ, což je nezbytné pro právnà analýzy nebo finanÄnà modelovánÃ.
Softwarové inženýrstvÃV oblasti vývoje softwaru Magistral vylepÅ¡uje plánovánà projektů, návrh backendové architektury, frontend design a datové inženýrstvà prostÅednictvÃm sekvenovaných, vÃcekrokových akcà zahrnujÃcÃch externà nástroje nebo API. Model významnÄ pÅekonává bÄžné jazykové modely bez schopnosti uvažovánà v programátorských úlohách.
PÅiznám se ale, že zatÃm neznám nikoho, kdo by použÃval Mistral modely v kódovánÃ, musÃm to sám vyzkouÅ¡et - Mistral Code
Dostupnost a nasazenÃMagistral Small je dostupný zdarma na platformÄ Hugging Face pro vlastnà nasazenÃ. Magistral Medium lze vyzkouÅ¡et v preview verzi v aplikaci Le Chat nebo pÅes API na La Plateforme. KomerÄnà verze bude dostupná na Amazon SageMaker a v budoucnu na IBM WatsonX, Azure AI a Google Cloud Marketplace.
Pro podnikové zákaznÃky a vlastnà ÅeÅ¡enà vÄetnÄ on-premises nasazenà nabÃzà Mistral AI kontakt s obchodnÃm týmem. Model je také podporován vÄdeckou publikacà pokrývajÃcà evaluace, trénovacà infrastrukturu a algoritmy pro posilované uÄenÃ.
Technologické pozadÃMagistral využÃvá pokroÄilé algoritmy posilovaného uÄenà optimalizované pro trénovánà uvažujÃcÃch modelů. Architektura je speciálnÄ navržena pro vÃcekrokovou logiku na rozdÃl od univerzálnÃch modelů. Mistral AI plánuje rychlé iterace modelu s konstantnÃmi vylepÅ¡enÃmi.
Model rozÅ¡iÅuje portfolio francouzské spoleÄnosti Mistral AI, která konkuruje americkým gigantům jako OpenAI nebo Anthropic. Mistral AI se zamÄÅuje na kombinaci open-source pÅÃstupu s komerÄnÃmi ÅeÅ¡enÃmi pro podniky.
Komunitnà pÅÃstup umožÅuje vývojáÅům zkoumat, modifikovat a stavÄt na architektuÅe Magistralu. PÅedchozà open-source modely od Mistral AI již byly využity komunitou pro projekty jako ether0 a DeepHermes 3.
KlÃÄové vlastnosti modelu: Transparentnà uvažovánà s možnostà ovÄÅenà každého kroku Nativnà multijazyÄnost bez ztráty kvality Specializace na doménovÄ specifické problémy Vysoká rychlost zpracovánà v reálném Äase Open-source dostupnost menšà verze Podpora regulovaných odvÄtvà s požadavky na auditovatelnostJune 8, 2025
Limity současných uvažujících jazykových modelů - Analýza skutečných schopností LRM
Limity souÄasných uvažujÃcÃch jazykových modelů - Analýza skuteÄných schopnostà LRM
Nedávná studie Apple odhaluje dosti zásadnà omezenà v architektuÅe uvažujÃcÃch jazykových modelů (Large Reasoning Models) a zpochybÅuje jejich skuteÄné uvažovacà schopnosti. Je to jen vlnka na jezeÅe nadÄjÃ, že modely jako o3 nebo deepseek-r1 jsou schopny kvalitativnÃch posunů, Äi vážný problém?
Poslednà generace jazykových modelů, oznaÄovaná jako Large Reasoning Models (LRM) - Velké modely uvažovánÃ, pÅedstavuje modely jako OpenAI o1/o3, DeepSeek-R1 nebo Claude 3.7 Sonnet Thinking. Tyto systémy se vyznaÄujà generovánÃm rozsáhlých âmyÅ¡lenkovýchâ procesů pÅed poskytnutÃm odpovÄdi, tzv. obsáhlé ÅetÄzce úvah (chain-of-thought, CoT). Což má simulovat lidské uvažovánÃ. Navzdory slibným výsledkům na standardnÃch benchmarcÃch vÅ¡ak zůstává otázka, zda skuteÄnÄ docházà k zobecnitelnému uvažovánÃ, nebo jde o sofistikovanÄjšà formu pattern matchingu. A tuto otázku se pokusil zodpovÄdÄt Apple v studii, která se zamÄÅila na analýzu uvažovacÃch schopnostà tÄchto modelů. Studie se pÅÃznaÄnÄ jmenuje Iluze myÅ¡lenÃ: PorozumÄnà silným stránkám a omezenÃm modelů uvažovánà z pohledu složitosti problémů.
Na zaÄátek si výzkumnÃci stanovily dvÄ hypotézy:
Hypotéza 1:Zda LRM skuteÄnÄ umÄjà generalizovat proces âmyÅ¡lenÃâ na nové úlohy, nebo spÃÅ¡e sofistikovanÄ napodobujà vzory z tréninkových dat, pÅÃpadnÄ provádÄjà komplexnà pattern matching.
Hypotéza 2:Zda navyÅ¡ovánà výpoÄetnÃho rozpoÄtu a délky generovaného âmyÅ¡lenÃâ skuteÄnÄ zlepÅ¡uje ÅeÅ¡enà složitÄjÅ¡Ãch problémů, nebo modely narážejà na urÄitou hranici, za kterou selhávajà bez ohledu na dalšà zdroje.
Metodologický problém souÄasného hodnocenÃStandardnà evaluace LRM trpà nÄkolika zásadnÃmi nedostatky. PÅedevÅ¡Ãm se spoléhajà na etablované matematické a programátorské benchmarky, které Äasto obsahujà data z trénovacÃch sad. Tato kontaminace se pak odrážà ve zdánlivém výkonu. Testy navÃc neumožÅujà kontrolované experimentálnà podmÃnky napÅÃÄ různými úrovnÄmi složitosti a neposkytujà vhled do struktury a kvality samotných uvažovacÃch procesů.
AutoÅi studie proto navrhli alternativnà pÅÃstup založený na kontrolovaných puzzle prostÅedÃch, které umožÅujÃ:
PÅesné ÅÃzenà složitosti prostÅednictvÃm úpravy parametrů pÅi zachovánà logické struktury Eliminaci kontaminace dat použitÃm nových, specificky navržených problémů Důraz na algoritmické uvažovánà s jasnÄ definovanými pravidly Rigoróznà hodnocenà pomocà deterministických simulátorůExperimentálnà designVýzkumnÃci využili ÄtyÅi typy puzzlà s různými charakteristikami složitosti, napÅ. Hanojské vÄže, pÅesouvánà figurek, pÅechod pÅes Åeku, skládánà bloků). UmožÅujà tak pÅesné ÅÃzenà složitosti a eliminaci efektu ânauÄenýchâ ÅeÅ¡enÃ. A mÄÅà nejen finálnà správnost, ale i strukturu a kvalitu mezikroků v ÅetÄzci uvažovánÃ.
Každé puzzle bylo testováno s postupnÄ rostoucà složitostÃ, pÅiÄemž byly analyzovány právÄ nejenom finálnà odpovÄdi, tak mezilehlé kroky v âmyÅ¡lenkovýchâ procesech modelů.
KlÃÄová zjiÅ¡tÄnÃTÅÃ-režimová architektura výkonnostiAnalýza odhalila konzistentnà vzorec napÅÃÄ vÅ¡emi testovanými modely:
NÃzká složitost: Standardnà LLM bez explicitnÃho myÅ¡lenà Äasto dosahujà lepÅ¡Ãch výsledků i vyššà efektivity. LRM v této oblasti Äasto âpÅemýšlà zbyteÄnÄ dlouhoâ (overthinking). StÅednà složitost: LRM zaÄÃnajà mÃt výhodu dÃky schopnosti déle rozebÃrat problém, obÄas naleznou ÅeÅ¡enà po delÅ¡Ãm zkouÅ¡enà různých cest. RozdÃl ve výkonu mezi âthinkingâ a ânon-thinkingâ modely roste ve prospÄch LRMs. Vysoká složitost: Docházà k âkolapsuâ obou typů modelů: pravdÄpodobnost úspÄchu padá na nulu. ZajÃmavé je, že právÄ v této fázi modely zaÄnou paradoxnÄ spotÅebovávat ménÄ výpoÄetnÃho výkonu na myÅ¡lenà (zkracujà ÅetÄzec úvah), pÅestože složitost problému roste a majà dostateÄný token budget. Paradoxnà škálovacà limityNejpÅekvapivÄjÅ¡Ãm objevem je kontraintuitivnà vztah mezi složitostà problému a investovaným âuvažovacÃmâ úsilÃm. Modely nejprve zvyÅ¡ujà poÄet thinking tokenů úmÄrnÄ se složitostÃ, ale pÅi dosaženà kritického prahu zaÄÃnajà úsilà snižovat - navzdory dostupnému token budgetu a rostoucà obtÞnosti problémů.
Tento jev naznaÄuje fundamentálnà architektonické omezenà v souÄasných LRM, kde systémy nejsou schopny efektivnÄ alokovat výpoÄetnà zdroje pÅi inference pro nejtÄžšà problémy.
Selhánà pÅi exaktnÃm výpoÄtuZvláštÄ alarmujÃcà je zjiÅ¡tÄnÃ, že poskytnutà kompletnÃho algoritmu ÅeÅ¡enà nevedlo ke zlepÅ¡enà výkonnosti. Modely selhávaly i pÅi pouhém vykonávánà pÅedepsaných kroků, což odhaluje limity nejen v objevovánà strategiÃ, ale i v konzistentnÃm logickém ovÄÅovánà a v provádÄnà úkolů krok po kroku.
NapÅÃklad v Hanojských vÄžÃch dosáhly modely správných sekvencà pÅes 100 kroků, zatÃmco v River Crossing selhaly již po 4 krocÃch u problémů s kratÅ¡Ãm celkovým ÅeÅ¡enÃm. Tato nekonzistence naznaÄuje, že výkonnost nenà primárnÄ funkcà délky sekvence, ale spÃÅ¡e dostupnosti podobných vzorců v trénovacÃch datech.
Analýza myÅ¡lenkových procesůDetailnà rozbor postupu uvažovánà odhalil urÄité zákonitosti Äi vzorce:
U jednoduchých problémů: Distribuce nesprávných ÅeÅ¡enà je posunuta smÄrem ke konci uvažovánà ve srovnánà se správnými ÅeÅ¡enÃmi U stÅednÄ složitých problémů: OpaÄný trend - správná ÅeÅ¡enà se objevujà pozdÄji v sekvenci U vysoké složitosti: Absence jakýchkoli správných ÅeÅ¡enà v celém průbÄhu uvažovánÃTyto vzorce dokumentujà omezenou schopnost samoopravy souÄasných LRM a potvrzujà hypotézu o existenci Å¡kálovacÃch bariér dneÅ¡nÃho pÅÃstupu k AI prostÅednictvÃm uvažujÃcÃch jazykových modelů.
Implikace pro vývoj AIVýsledky zpochybÅujà souÄasné paradigma, že zvýšenà inference-time resoning Äasů automaticky vede k lepÅ¡Ãm reasoning schopnostem. MÃsto toho naznaÄujà existenci architektonických bottlenecků, které bránà efektivnÃmu Å¡kálovánà na složité problémy.
ð¡ Inference-time reasoning je schopnost AI modelu provádÄt složité uvažovacà procesy bÄhem samotného použÃvánà (inference), nikoli pouze spoléhat na znalosti nauÄené bÄhem tréninku. Jde o proces, kdy model âpÅemýšlÃâ nad problémem v reálném Äase a generuje mezikroky pÅed poskytnutÃm finálnà odpovÄdi.
Pro nasazenà v reálném svÄtÄ znamenajà tato zjiÅ¡tÄnÃ, že souÄasné LRM:
Mohou být užiteÄné pro problémy stÅednà složitosti s dobÅe definovanými vzorci Nejsou spolehlivé pro skuteÄnÄ složité plánovacà úlohy Vyžadujà opatrnost pÅi aplikacÃch vyžadujÃcÃch konzistentnà logické ovÄÅovánÃSmÄry dalÅ¡Ãho výzkumuStudie identifikuje nÄkolik kritických oblastà pro pokraÄujÃcà výzkum:
Architektonické inovace: PotÅeba nových pÅÃstupů k inferencÃm, které pÅekonajà souÄasné Å¡kálovacà limity.
Trénovacà metodologie: Zkoumánà technik, které by vedly k robustnÄjÅ¡Ãmu algoritmickému uvažovánà mÃsto spoléhánà na pattern matching.
EvaluaÄnà frameworky: RozÅ¡ÃÅenà kontrolovaných experimentálnÃch prostÅedà na Å¡iršà spektrum uvažovacÃch úloh.
ZávÄrV ÅadÄ pÅÃpadů se modely chovajà âzdánlivÄ inteligentnÄâ, ale selhávajà v generalizaci, v exekuci jasných pravidel nebo v plánovánà pro opravdu složité úlohy. Studie také nenaznaÄuje, že samotná velikost modelu nebo vÃce dat problém vyÅeÅ¡Ã. Bariéra je spÃÅ¡e v architektuÅe a schopnosti symbolické manipulace.
Tato studie poskytuje empiricky podložený pohled na skuteÄné schopnosti souÄasných Large Reasoning Models. ZatÃmco tyto systémy pÅedstavujà pokrok v urÄitých doménách, jejich fundamentálnà omezenà v zobecnitelném uvažovánà jsou zásadnÄjÅ¡Ã, než původnÄ pÅedpokládáno.
Výsledky nenaznaÄujÃ, že reasoning modely jsou bezcenné, ale spÃÅ¡e definujà jasné hranice jejich použitÃ. Pro vÄdeckou komunitu to znamená potÅebu pÅehodnotit souÄasné pÅÃstupy k design inference-time reasoning a hledánà nových architektonických ÅeÅ¡enÃ, která by pÅekonala identifikované Å¡kálovacà bariéry.
VnÃmám zde nÄkolik otevÅených otázek:
Jakým způsobem lze modely nauÄit skuteÄnou generalizaci uvažovacÃch postupů, nikoliv pouze pattern matching (tedy založené na rozpoznávánà vzorců) a napodobovánà povrchových struktur? Je možné kombinovat souÄasné LLM s explicitnÃmi symbolickými moduly nebo plánovaÄi pro zvýšenà robustnosti reasoning? Do jaké mÃry jsou limity způsobeny architekturou modelu, RL tréninkem, nebo samotným charakterem dat?RozhodujÃcà bude, zda se podaÅà vyvinout systémy skuteÄnÄ schopné algoritmického uvažovánÃ, nebo zda zůstaneme omezeni na sofistikované metody, které v podstatÄ pouze rozpoznávajà vzorce z trénovacÃch dat.
June 4, 2025
Cursor 1.0 - Nové funkce pro AI programování / vibecoding
Cursor 1.0 - Nové funkce pro AI programovánà / vibecoding
SpoleÄnost Anysphere vydala verzi 1.0 svého AI editoru kódu Cursor, která pÅinášà automatickou kontrolu kódu, rozÅ¡ÃÅený pÅÃstup k Background Agent a zjednoduÅ¡enou integraci MCP protokolu. Vydánà pÅicházà vÃce než rok po spuÅ¡tÄnà v roce 2023 a obsahuje sedm hlavnÃch funkcÃ.
Automatická kontrola kódu s BugBotBugBot analyzuje zmÄny v pull requestech pomocà AI modelů dostupných v Cursor. Nástroj identifikuje potenciálnà problémy v kódu pÅed jeho zaÄlenÄnÃm do hlavnà vÄtve.
Systém nabÃzà tÅi režimy práce:
Automatické komentáÅe: PÅi aktualizaci pull requestu BugBot znovu provÄÅà kód a pÅidá komentáÅe k identifikovaným problémům Manuálnà spuÅ¡tÄnÃ: Aktivace pÅÃkazem bugbot run v komentáÅi PÅÃmá integrace: TlaÄÃtko âFix in Cursorâ otevÅe editor s pÅedvyplnÄným promptem pro opravuNastavenà vyžaduje administrátorská oprávnÄnà pro Cursor i GitHub organizaci. Konfigurace probÃhá na cursor.com/settings v sekci Integrations. Uživatelé mohou nastavit ÄtyÅi různé režimy aktivace: automatické spouÅ¡tÄnÃ, pouze pÅi zmÃnce, jednorázové spuÅ¡tÄnà na pull request, nebo skrytà komentáÅů když nejsou nalezeny problémy.
BugBot nabÃzà sedmidennà zkuÅ¡ebnà obdobà s možnostà nastavenà mÄsÃÄnÃho limitu nákladů.
Background Agent pro vÅ¡echny uživateleFunkce Background Agent, dÅÃve omezená na early access, je nynà dostupná vÅ¡em uživatelům. UmožÅuje spouÅ¡tÄnà AI agentů v cloudu, kteÅà provádÄjà zmÄny v kódu na pozadÃ.
Aktivace probÃhá kliknutÃm na ikonu cloudu v chatu nebo zkratkou Cmd/Ctrl+E. Funkce nenà kompatibilnà s režimem soukromà (Privacy mode), který je nutné pÅed použitÃm deaktivovat.
Background Agent pÅinášà nÄkolik bezpeÄnostnÃch aspektů, které je tÅeba zvážit:
Vyžaduje udÄlenà read-write oprávnÄnà GitHub aplikaci pro práci s repozitáÅi Kód se spouÅ¡tà v AWS infrastruktuÅe Anysphere Automaticky spouÅ¡tà vÅ¡echny pÅÃkazy, což může vystavit systém prompt injection útokům PÅi vypnutém privacy módu se ukládajà prompty a vývojová prostÅedà pro zlepÅ¡ovánà produktu Citlivé údaje se ukládajà šifrovanÄ pomocà KMS do databázeAnysphere upozorÅuje, že infrastruktura zatÃm nebyla auditována tÅetÃmi stranami. Pro projekty s citlivými daty doporuÄuje zvážit použità této funkce.
Podpora Jupyter notebookůCursor může nynà provádÄt zmÄny pÅÃmo v Jupyter noteboocÃch. Agent dokáže vytváÅet a upravovat vÃce bunÄk souÄasnÄ. Funkce je omezena na modely Åady Sonnet.
Jupyter notebooky jsou interaktivnà vývojové prostÅedà použÃvané pÅedevÅ¡Ãm v datové vÄdÄ a machine learningu pro kombinovánà kódu, vizualizacà a dokumentace.
Memories - projektová pamÄÅ¥Funkce Memories umožÅuje Cursor zapamatovat si informace z konverzacà pro budoucà použitÃ. PamÄÅ¥ je uložena na úrovni jednotlivých projektů a spravuje se v nastavenà editoru.
Systém funguje pomocà pÅÃkazu â@Memoryâ (napÅÃklad âPlease remember ___ @Memoryâ), který vytvoÅà projektové pravidlo a uložà data do adresáÅe .cursor/rules/. Memories jsou ve fázi beta testovánà a aktivujà se v Settings â Rules.
MCP protokol s jednÃm kliknutÃmModel Context Protocol (MCP) pÅedstavuje standardizovaný způsob pÅipojenà AI agentů k externÃm zdrojům dat. MCP funguje jako vrstva mezi jazykovými modely a API různých služeb, což eliminuje nutnost psát vlastnà kód pro každou integraci.
Cursor 1.0 zjednoduÅ¡uje instalaci MCP serverů. MÃsto manuálnÃho nastavovánà pÅes âAdd Custom MCPâ nynà uživatelé navÅ¡tÃvà stránku MCP tools, vyberou požadovaný nástroj a kliknou na âAdd app to Cursorâ.
AktuálnÄ jsou podporovány servery pro GitHub, Stripe a Figma. PÅibyla také OAuth podpora pro autentizaci serverů, které ji podporujÃ.
Bohatšà odpovÄdi v chatuCursor nynà zobrazuje vizualizace pÅÃmo v konverzacÃch. Editor umà generovat a zobrazovat Mermaid diagramy a Markdown tabulky na jednom mÃstÄ.
Mermaid je textový jazyk pro tvorbu diagramů a schémat, který umožÅuje rychlé vytváÅenà flowchartů a dalÅ¡Ãch vizualizacà pomocà textové syntaxe.
Nový dashboard a nastavenÃStránky nastavenà a dashboardu byly pÅepracovány. Nový dashboard zobrazuje individuálnà nebo týmové analytiky využitÃ, umožÅuje zmÄnu zobrazovaného jména a poskytuje detailnà statistiky podle nástrojů nebo modelů.
Dashboard nabÃzà nastavenà Äasového rozsahu pro zobrazenà trendů využitÃ. V nastavenà IDE lze upravit vzhled chatu a kontextového rozhranÃ.
Dalšà zmÄnyVerze 1.0 obsahuje také menšà vylepÅ¡enÃ:
Klávesové zkratky:
Cmd/Ctrl+E pro Background AgentFunkÄnà rozÅ¡ÃÅenÃ:
@Link a webové vyhledávánà parsuje PDF soubory SÃÅ¥ová diagnostika v nastavenà Paralelnà volánà nástrojů pro rychlejšà odpovÄdi Možnost skládánà nástrojů v chatuSpráva úÄtů:
Podnikovà uživatelé majà pÅÃstup pouze ke stabilnÃm verzÃm Týmovà administrátoÅi mohou zakázat Privacy Mode Admin API pro pÅÃstup k metrikám a výdajůmModely:
Max režim pro Gemini 2.5 FlashTechnické pozadà a hodnocenÃCursor využÃvá různé jazykové modely pro analýzu kódu a generovánà návrhů. MateÅská spoleÄnost Anysphere je ocenÄna na 10 miliard dolarů. Background Agent bÄžà na AWS infrastruktuÅe, což umožÅuje zpracovánà bez zatÞenà lokálnÃho poÄÃtaÄe.
Významným pÅÃnosem verze 1.0 je automatizace kontroly kódu a rozÅ¡ÃÅenà cloudových funkcÃ. ZjednoduÅ¡ená integrace MCP protokolu může urychlit adopci externÃch nástrojů. NicménÄ nÄkteré funkce, jako Background Agent, vyžadujà peÄlivé zváženà bezpeÄnostnÃch rizik, zejména pro organizace s citlivými daty.
Omezenà na modely Sonnet u Jupyter notebooků a beta status funkcà jako Memories ukazujÃ, že nÄkteré funkce jsou stále ve vývoji. ChybÄjÃcà audit infrastruktury tÅetà stranou může být pÅekážkou pro adoption v nÄkterých podnikových prostÅedÃch.
Uživatelé mÃsty vyjadÅujà obavy ohlednÄ technických problémů, jako je absence sdÃlených MCP serverů, což vede k vysoké pamÄÅ¥ové nároÄnosti, a zastaralé verze VSCode použÃvané Cursorem, což způsobuje problémy s rozÅ¡ÃÅenÃmi. Tyto body naznaÄujÃ, že i pÅes pozitivnà odezvy existujà výzvy, které mohou ovlivnit uživatelský zážitek.
Dalšà feedback zahrnuje srovnánà s konkurencÃ, napÅÃklad s Claude Code, kde nÄkteÅà uživatelé považujà Cursor za levnÄjšà ($20/mÄsÃc oproti $200/mÄsÃc u Claude Code), ale vyjádÅili nespokojenost s výkonem, napÅÃklad âPodpora Pythonu byla minulý týden katastrofálnÃ, odinstaloval jsem to pÅed mÄsÃci kvůli tomuâ (Hacker News). Jinà uživatelé ocenili nové funkce, jako BugBot a rozÅ¡ÃÅenà Background Agentů, ale pÅáli si vylepÅ¡enÃ, napÅÃklad dostupnost Background Agentů i v režimu soukromÃ.
Oficiálnà changelog poskytuje detailnà pÅehled nových funkcÃ, vÄetnÄ automatických kontrol kódu s BugBotem, rozÅ¡ÃÅenà Background Agentů pro vÅ¡echny uživatele a podpory Jupyter Notebooks, což odpovÃdá oznámenà v X pÅÃspÄvku a video.
Cursor 1.0: Nové funkce pro AI programovánà / vibecoding
SpoleÄnost Anysphere vydala verzi 1.0 svého AI editoru kódu Cursor, která pÅinášà automatickou kontrolu kódu, rozÅ¡ÃÅený pÅÃstup k Background Agent a zjednoduÅ¡enou integraci MCP protokolu. Vydánà pÅicházà vÃce než rok po spuÅ¡tÄnà v roce 2023 a obsahuje sedm hlavnÃch funkcÃ.
Automatická kontrola kódu s BugBotBugBot analyzuje zmÄny v pull requestech pomocà AI modelů dostupných v Cursor. Nástroj identifikuje potenciálnà problémy v kódu pÅed jeho zaÄlenÄnÃm do hlavnà vÄtve.
Systém nabÃzà tÅi režimy práce:
Automatické komentáÅe: PÅi aktualizaci pull requestu BugBot znovu provÄÅà kód a pÅidá komentáÅe k identifikovaným problémům Manuálnà spuÅ¡tÄnÃ: Aktivace pÅÃkazem bugbot run v komentáÅi PÅÃmá integrace: TlaÄÃtko âFix in Cursorâ otevÅe editor s pÅedvyplnÄným promptem pro opravuNastavenà vyžaduje administrátorská oprávnÄnà pro Cursor i GitHub organizaci. Konfigurace probÃhá na cursor.com/settings v sekci Integrations. Uživatelé mohou nastavit ÄtyÅi různé režimy aktivace: automatické spouÅ¡tÄnÃ, pouze pÅi zmÃnce, jednorázové spuÅ¡tÄnà na pull request, nebo skrytà komentáÅů když nejsou nalezeny problémy.
BugBot nabÃzà sedmidennà zkuÅ¡ebnà obdobà s možnostà nastavenà mÄsÃÄnÃho limitu nákladů.
Background Agent pro vÅ¡echny uživateleFunkce Background Agent, dÅÃve omezená na early access, je nynà dostupná vÅ¡em uživatelům. UmožÅuje spouÅ¡tÄnà AI agentů v cloudu, kteÅà provádÄjà zmÄny v kódu na pozadÃ.
Aktivace probÃhá kliknutÃm na ikonu cloudu v chatu nebo zkratkou Cmd/Ctrl+E. Funkce nenà kompatibilnà s režimem soukromà (Privacy mode), který je nutné pÅed použitÃm deaktivovat.
Background Agent pÅinášà nÄkolik bezpeÄnostnÃch aspektů, které je tÅeba zvážit:
Vyžaduje udÄlenà read-write oprávnÄnà GitHub aplikaci pro práci s repozitáÅi Kód se spouÅ¡tà v AWS infrastruktuÅe Anysphere Automaticky spouÅ¡tà vÅ¡echny pÅÃkazy, což může vystavit systém prompt injection útokům PÅi vypnutém privacy módu se ukládajà prompty a vývojová prostÅedà pro zlepÅ¡ovánà produktu Citlivé údaje se ukládajà šifrovanÄ pomocà KMS do databázeAnysphere upozorÅuje, že infrastruktura zatÃm nebyla auditována tÅetÃmi stranami. Pro projekty s citlivými daty doporuÄuje zvážit použità této funkce.
Podpora Jupyter notebookůCursor může nynà provádÄt zmÄny pÅÃmo v Jupyter noteboocÃch. Agent dokáže vytváÅet a upravovat vÃce bunÄk souÄasnÄ. Funkce je omezena na modely Åady Sonnet.
Jupyter notebooky jsou interaktivnà vývojové prostÅedà použÃvané pÅedevÅ¡Ãm v datové vÄdÄ a machine learningu pro kombinovánà kódu, vizualizacà a dokumentace.
Memories - projektová pamÄÅ¥Funkce Memories umožÅuje Cursor zapamatovat si informace z konverzacà pro budoucà použitÃ. PamÄÅ¥ je uložena na úrovni jednotlivých projektů a spravuje se v nastavenà editoru.
Systém funguje pomocà pÅÃkazu â@Memoryâ (napÅÃklad âPlease remember ___ @Memoryâ), který vytvoÅà projektové pravidlo a uložà data do adresáÅe .cursor/rules/. Memories jsou ve fázi beta testovánà a aktivujà se v Settings â Rules.
MCP protokol s jednÃm kliknutÃmModel Context Protocol (MCP) pÅedstavuje standardizovaný způsob pÅipojenà AI agentů k externÃm zdrojům dat. MCP funguje jako vrstva mezi jazykovými modely a API různých služeb, což eliminuje nutnost psát vlastnà kód pro každou integraci.
Cursor 1.0 zjednoduÅ¡uje instalaci MCP serverů. MÃsto manuálnÃho nastavovánà pÅes âAdd Custom MCPâ nynà uživatelé navÅ¡tÃvà stránku MCP tools, vyberou požadovaný nástroj a kliknou na âAdd app to Cursorâ.
AktuálnÄ jsou podporovány servery pro GitHub, Stripe a Figma. PÅibyla také OAuth podpora pro autentizaci serverů, které ji podporujÃ.
Bohatšà odpovÄdi v chatuCursor nynà zobrazuje vizualizace pÅÃmo v konverzacÃch. Editor umà generovat a zobrazovat Mermaid diagramy a Markdown tabulky na jednom mÃstÄ.
Mermaid je textový jazyk pro tvorbu diagramů a schémat, který umožÅuje rychlé vytváÅenà flowchartů a dalÅ¡Ãch vizualizacà pomocà textové syntaxe.
Nový dashboard a nastavenÃStránky nastavenà a dashboardu byly pÅepracovány. Nový dashboard zobrazuje individuálnà nebo týmové analytiky využitÃ, umožÅuje zmÄnu zobrazovaného jména a poskytuje detailnà statistiky podle nástrojů nebo modelů.
Dashboard nabÃzà nastavenà Äasového rozsahu pro zobrazenà trendů využitÃ. V nastavenà IDE lze upravit vzhled chatu a kontextového rozhranÃ.
Dalšà zmÄnyVerze 1.0 obsahuje také menšà vylepÅ¡enÃ:
Klávesové zkratky:
Cmd/Ctrl+E pro Background AgentFunkÄnà rozÅ¡ÃÅenÃ:
@Link a webové vyhledávánà parsuje PDF soubory SÃÅ¥ová diagnostika v nastavenà Paralelnà volánà nástrojů pro rychlejšà odpovÄdi Možnost skládánà nástrojů v chatuSpráva úÄtů:
Podnikovà uživatelé majà pÅÃstup pouze ke stabilnÃm verzÃm Týmovà administrátoÅi mohou zakázat Privacy Mode Admin API pro pÅÃstup k metrikám a výdajůmModely:
Max režim pro Gemini 2.5 FlashTechnické pozadà a hodnocenÃCursor využÃvá různé jazykové modely pro analýzu kódu a generovánà návrhů. MateÅská spoleÄnost Anysphere je ocenÄna na 10 miliard dolarů. Background Agent bÄžà na AWS infrastruktuÅe, což umožÅuje zpracovánà bez zatÞenà lokálnÃho poÄÃtaÄe.
Významným pÅÃnosem verze 1.0 je automatizace kontroly kódu a rozÅ¡ÃÅenà cloudových funkcÃ. ZjednoduÅ¡ená integrace MCP protokolu může urychlit adopci externÃch nástrojů. NicménÄ nÄkteré funkce, jako Background Agent, vyžadujà peÄlivé zváženà bezpeÄnostnÃch rizik, zejména pro organizace s citlivými daty.
Omezenà na modely Sonnet u Jupyter notebooků a beta status funkcà jako Memories ukazujÃ, že nÄkteré funkce jsou stále ve vývoji. ChybÄjÃcà audit infrastruktury tÅetà stranou může být pÅekážkou pro adoption v nÄkterých podnikových prostÅedÃch.
Uživatelé mÃsty vyjadÅujà obavy ohlednÄ technických problémů, jako je absence sdÃlených MCP serverů, což vede k vysoké pamÄÅ¥ové nároÄnosti, a zastaralé verze VSCode použÃvané Cursorem, což způsobuje problémy s rozÅ¡ÃÅenÃmi. Tyto body naznaÄujÃ, že i pÅes pozitivnà odezvy existujà výzvy, které mohou ovlivnit uživatelský zážitek.
Dalšà feedback zahrnuje srovnánà s konkurencÃ, napÅÃklad s Claude Code, kde nÄkteÅà uživatelé považujà Cursor za levnÄjšà ($20/mÄsÃc oproti $200/mÄsÃc u Claude Code), ale vyjádÅili nespokojenost s výkonem, napÅÃklad âPodpora Pythonu byla minulý týden katastrofálnÃ, odinstaloval jsem to pÅed mÄsÃci kvůli tomuâ (Hacker News). Jinà uživatelé ocenili nové funkce, jako BugBot a rozÅ¡ÃÅenà Background Agentů, ale pÅáli si vylepÅ¡enÃ, napÅÃklad dostupnost Background Agentů i v režimu soukromÃ.
Oficiálnà changelog poskytuje detailnà pÅehled nových funkcÃ, vÄetnÄ automatických kontrol kódu s BugBotem, rozÅ¡ÃÅenà Background Agentů pro vÅ¡echny uživatele a podpory Jupyter Notebooks, což odpovÃdá oznámenà v X pÅÃspÄvku a video.
June 3, 2025
Praha se loučila s bývalou německou kancléřkou
Praha se louÄila s bývalou nÄmeckou kancléÅkou
VÄera veÄer, v naprosto naplnÄné LucernÄ, se Äesko louÄilo s bývalou nÄmeckou kancléÅkou Angelou Merkelovou. Velký rozhovor, který dávala k pÅÃležitosti vydánà své knihy Svoboda, byl výjimeÄný - jak délkou, tak nakonec i otevÅenostÃ.
V průbÄhu veÄera musela obhajovat svá rozhodnutà ohlednÄ ruské politiky i migraÄnà krize. Zvládla to tak, jako po celých Å¡estnáct let svého kancléÅstvÃ: pÅesnÄ a jasnÄ vyargumentovala závÄry, které ji k rozhodnutà vedly a na závÄr dodává, že dnes by se nerozhodla jinak.
Merkelová narozená v NDR má k Äesku sentimentálnà vztah, v osmdesátkách tu strávila trojici nÄkolikamÄsÃÄnÃch výzkumných pobytů a od té doby mÄla pro Äesko slabost. Což jsme ne vždy umÄli docenit. A opakuje to znovu, že do Prahy se vždy ráda vracÃ, i když by také ráda strávila nÄjaký Äas v Itálii - a v Japonsku, kde navÃc tÄžà z toho, že zde nenà tak známá.
NejdÅÃve si myslÃm, že je to trolling - nad hlavou scény dvou žlutých kÅesÃlek a malého stoleÄku svÃtà nápis Respekt, což byl pÅedvolebnà slogan Olafa Scholzeho. Pak se ukáže, že akci poÅádá Äasopis Respekt, jehož šéfredaktor kancléÅku uvede a jeden z redaktorů vede rozhovor.
[image error]
Tady musÃm ÅÃct, že jsem byl rád, že jsem si vzal sluchátka s pÅekladem, protože moderátorovi vůbec nerozumÃm, půlku nÄmeckého slova vždy nÄjak zaÅ¡umluje a na moji nahluchlost to nenà to pravé oÅechové. Takže na jeho otázku si vždycky nasazuju sluchátka, zatÃmco kancléÅÄina Äistá a jasná nÄmÄina je pohlazenÃm. KromÄ toho mluvà moderátor zajÃkavÄ, frázovitÄ, pomalu, asi aby zbrzdil Merklové projev, což se mu nedaÅÃ. Ale sama kancléÅka ÅÃká, že na ni máme mávat, pokud nebudeme stÃhat - na to ale nedoÅ¡lo.
Nebudu projev rekapitulovat, jen zmÃnÃm pár momentů, které mi utkvÄly v hlavÄ. V jeden moment pÅijde otázka na souÄasnou Ukrajinskou krizi. Merkelová pÅipomÃná, že âNÄmecko navázalo diplomatické kontakty a ostatnà se spoléhali na to, že nÄkdo stále mluvà s Putinem.â ZdůrazÅuje, že považovala za velmi nebezpeÄné poskytnout UkrajinÄ pÅedbÄžnou fázi ke Älenstvà v NATO, kdy by ale nemÄla ochranu podle Älánku 5. Putin by podle nà nezůstal neÄinný a v této dobÄ zaútoÄil, zatÃmco Ukrajina v té dobÄ nemÄla vybudovanou armádu. âBohužel jsem dospÄla ke stejnému závÄru, rozhodla bych se tak znovu,â ÅÃká kancléÅka klidnÄ a jasnÄ. A také pÅipouÅ¡tÃ, že NÄmecko mÄlo rychleji navyÅ¡ovat své vojenské kapacity. âAni dnes se žádné ÅeÅ¡enà neobejde bez diplomacie.â âA aÄkoliv je jasné, že Rusko válku vojenskou silou nevyhraje, bude nutné vyvinout k jejÃmu ukonÄenà znaÄné diplomatické úsilÃ,â pÅipomÃná. PÅipomÃná také, že NÄmecku byla vyÄÃtána závislost na Ruském plynu, ale vÅ¡ichni vÄetnÄ Ukrajiny jeho užÃvánà podporovali a nakonec to bylo NÄmecko, kdo na nÄm bylo nejménÄ závislé a rychle se jej bylo schopno zbavit.
Nezvykle ostrá slova má také pro situaci v Gaze. PÅipomÃná, že je to Hamás, kdo zaútoÄil v ÅÃjnu na Izrael a kdo zastává názor, že Izrael musà být zniÄen a kdo také použÃvá civilnà obyvatelstvo jako živé Å¡tÃty. âIzrael nenà jen premiér Netanjahu. NemusÃm podporovat Netajnahuovu politiku, vÄetnÄ nemilosrdnosti, kterou projevuje vůÄi obyvatelstvu v Gaze, ale odpovÄdà nemůže být, že kvůli tomu zpochybnÃm svou podporu Izraele,â ÅÃká Merkelová. âJsem na stranÄ vÅ¡ech, kdo proti Netanjahuovi v Izraeli protestujÃ,â ÅÃká jasnÄ - nÄco, co si jako kancléÅka dovolit nemohla. V sále se rozeznà potlesk. Nakonec Merkelová pÅipomÃná dvojà metr v této debatÄ. âVálka v Jemenu pravdÄpodobnÄ způsobuje hlad 15 milionů lidÃ, vÄetnÄ mnoha dÄtÃ,â ÅÃká Merkelová. Nemajà prakticky žádnou lobby. Ale: âKdyž pÅijde ÅeÄ na Izrael, je Izrael hodnÄ pranýÅován.â
Když po hodinÄ a půl rozhovor konÄÃ, dostává se viditelnÄ dojaté bývalé nÄmecké kancléÅce mnohaminutový aplaus. Lidé stávajà a potlesk neutichá, ani když se kancléÅka už otáÄà k odchodu, jeÅ¡tÄ se vracÃ, aby publiku znovu podÄkovala. âJako na Cimrmanech,â komentuje to pár vedle mne.
Praha se louÄà s kancléÅkou, za nÞ jedna generace žila v mÃru a blahobytu. A kancléÅka Merkelová nemůže za to, jak to která zemÄ využila. Už dnes vÃme, že jejà následovnÃk Olaf Scholz důstojným pokraÄovánÃm jejà éry nebude. Merz? UvidÃme. Když jsem jà o nÄkolik hodin dÅÃve prosil o podpis jejà knihy, pÅiÅ¡lo mi důležité jà podÄkovat: âDanke für alles, Frau Bundeskanzlerin.â Dneska je Äas na podÄkovánÃ, ne na kritiku.
UsmÄje se a pokývá hlavou, i když kolikrát musela tuhle vÄtu slyÅ¡et.
Takhle konÄà velká éra tohoto stoletÃ, bohužel také jedna z tÄch nejšťastnÄjÅ¡Ãch.
Danke für alles, Frau Bundeskanzlerin.
PS: Respekt má velký Älánek rekapitulujÃcà debatu: Angela Merkel pro Respekt: Zelenskyj mi Åekl, aÅ¥ se v BuÄe podÃvám, co moje politika vůÄi Rusku způsobila. Ale i podruhé bych se chovala stejnÄ