Obavy Čechů z AI: Výzkum a rizika

Filozof Stephen Cave z Cambridge varuje před zneužitím AI podobným rozhlasu za Hitlera

Mizící téma o společnosti a společenských pravidlech

Obsah této stránky je strojově generovaný pomocí pokročilých systémů umělé inteligence (AI). Neprošel redakčním zpracováním a může obsahovat chyby nebo nepřesnosti.

2 minuty čtení
Co se děje?

Nejnověji filozof Stephen Cave varuje, že umělá inteligence může zásadně změnit chápání lidství a přinést velké společenské krize, pokud nebudou dodržovány základní hodnoty míru a spravedlnosti [2].

Dřívější český výzkum ukázal, že více než dvě třetiny Čechů se obávají zneužití dat v souvislosti s AI; současně 39 % lidí k AI přistupuje vstřícně nebo ji běžně používá. Obavy rostou s věkem: generace baby boomers nejčastěji požaduje regulaci, zatímco generace Z AI běžně využívá. Lidé jsou výrazně více znepokojeni šířením dezinformací a autonomními zbraněmi než přímými útoky AI na člověka [1].

Celkově téma spojuje individuální obavy české veřejnosti (datové zneužití, manipulace, dezinformace) s širšími etickými a filozofickými varováními před změnou společenských hodnot a riziky systémového zneužití AI, jak je formulují odborníci jako Geoffrey Hinton a Stephen Cave [1][2].

Zdroje:

  1. Umělá inteligence může zmanipulovat masy podobně jako rozhlas za Hitlera, varuje filozof z Cambridge

  2. Strach z AI v praxi. Téměř polovina Čechů je k umělé inteligenci raději zdvořilá, ukázal výzkum

Nejnovější
Filozof Stephen Cave z Cambridge varuje před zneužitím AI podobným rozhlasu za Hitlera
29. 10. 2025: Filozof Stephen Cave upozorňuje, že AI změní naše chápání lidství a přinese zásadní společenské krize, pokud nebudou dodržovány základní hodnoty míru a spravedlnosti.
Řeklo se...
Přehled citací
1 Vysoký dopad
29. října 2025
Ale pokud bude stroj chytřejší než my, proč by nás chtěl nutně zotročit
2 Vysoký dopad
15. října 2025
Vlastně si tím vytváří alibi – že až se to všechno celé pokazí, tak ke mně se umělá inteligence bude chovat líp, protože já se k ní taky choval hezky
Dopady
Kdo si polepší, kdo tratí?

Média a dezinformační aktéři (prokremelská síť Pravda a podobně)

Generativní AI a síťové kampaně umožňují masivní šíření deepfake a dezinformací, které podkopávají důvěru veřejnosti a ovlivňují volby a veřejnou debatu.

Čeští spotřebitelé

Výzkum ukazuje, že většina Čechů se obává zneužití dat a šíření dezinformací souvisejících s AI, což snižuje důvěru a zvyšuje poptávku po regulaci a ochraně soukromí.

Čeští zaměstnanci (pracovníci v kancelářích a službách)

AI mění náplň práce; zaměstnanci se obávají nahrazení a často skrývají použití AI, což zvyšuje nejistotu a riziko propouštění v některých profesích.

Firmy poskytující AI nástroje (tech firmy)

Technologické firmy profitují z vysoké poptávky po AI (Cloud, copiloty, generativní nástroje) a získávají strategickou výhodu, ale čelí i regulačním tlakům EU.

Státní instituce a regulátoři (EU a ČR)

EU zavádí Akt o umělé inteligenci a vzniká tlak na regulaci (ochrana dat, high-risk systémy), což zvyšuje regulační nároky na firmy i státy; provádění a způsoby vymáhání jsou stále nedořešené.

Generace Z (mladší uživatelé)

Mladší generace AI vnímá optimismem a aktivně využívá nástroje (ChatGPT), ale čelí rizikům izolace, závislosti a ztráty kritického myšlení.

Čeští výzkumníci a vědci v IT/AI

Rostoucí zájem o AI, výzkumné iniciativy a národní projekty zvyšují příležitosti pro vývoj a export AI řešení v Česku.

České banky a finanční instituce

Banky získávají nástroje pro detekci podvodů a zpracování dat, zároveň čelí rizikům úniku dat a deepfake útokům, které ohrožují klienty i reputaci bank.

Kontext
Dříve jsme psali...
Geoffrey Hinton a výzkum odhalují obavy Čechů před umělou inteligencí
Více než dvě třetiny Čechů se bojí zneužití dat AI a 39 procent k ní i přesto přistupuje zdvořile.  Objevte český strach
Fakta
👤

Geoffrey Hinton

Laureát Nobelovy ceny za fyziku
(15. 10. 2025)

📊

>66%

Obava ze zneužití dat
(15. 10. 2025)

📊

74%

Obava z dezinformací a manipulace
(15. 10. 2025)

📊

60%

Obava ze zvýšení nezaměstnanosti
(15. 10. 2025)

📊

39%

Lidé ‚zdvořile‘ k AI
(15. 10. 2025)

📊

>100

Očekávaná délka života (roků)
(29. 10. 2025)

Události
Co a kdy?
2025
Studie "Nazí v době AI" zjistila, že více než dvě třetiny Čechů se obávají zneužití dat v souvislosti s AI; 39 % respondentů se k AI chová zdvořile, 74 % lidí se bojí zneužití AI k šíření dezinformací, 60 % se obává zvýšení nezaměstnanosti, a mladší generace vnímá AI optimističtěji (viz český výzkum).
15. října 2025
Geoffrey Hinton (uvedený jako "kmotr AI") byl podle článku oceněn loni Nobelovou cenou za fyziku za vynálezy umožňující strojové učení s neuronovými sítěmi; současně varuje před nebezpečím AI.
29. října 2025
Stephen Cave z Cambridgeu publikoval nebo vystoupil s varováním před společenskými a etickými dopady AI, zdůraznil možnost prodloužení průměrné délky života nad sto let díky biomedicínskému výzkumu a potřebu nových společenských mechanismů a hodnot při nasazování AI.
Co to znamená
Co se děje

Roste veřejné povědomí a obavy z AI

Srovnání před a po
👥 Veřejné vnímání a obavy
PŘED

AI byla vnímána ambivalentně; obavy existovaly, ale nebyly široce zkoumány v ČR

PO

Průzkumy a studie ukazují výrazný růst obav Čechů (dezinformace, ztráta pracovních míst, zneužití dat); rostou požadavky na regulaci

🏛️ Regulace a dozor
PŘED

EU AI Act rozpracováván; národní reakce různorodé

PO

Současné kroky: Itálie dočasně blokuje ChatGPT; evropské úřady (Irsko, Francie, Německo) žádají informace; probíhá debata o dopadech a potřebě pravidel|Vzniká Evropský úřad pro AI a diskuse o odpovědnosti, ale mnohá praktická pravidla a sankce zatím chybí

📋 Používání AI v praxi (firmy a občané)
PŘED

AI v ČR postupně nasazována ve firmách; část zaměstnanců experimentovala soukromě

PO

Roste využití v podnicích (marketing, zákaznická podpora, vývoj, zdravotnictví); zaměstnanci často AI skrývají ze strachu z nahraditelnosti; firmy zavádějí interní pravidla, linky důvěry a ombudsmany

💰 Bezpečnostní a společenská rizika
PŘED

Obavy z deepfake, kyberútoků a manipulací již známy

PO

Zprávy o realných incidentech (deepfake videa, dezinformace, falešné audio nahrávky); organizace (Europol, NÚKIB) i akademici varují před nárůstem sofistikovaných útoků; zároveň AI rozšiřuje možnosti obrany

Klíčové postavy
🏛️
Evropská unie (EU)
Příprava a prosazení AI Act, tvorba dozorčích rámců
🏢
OpenAI a technologické firmy (Microsoft, Google)
Vývoj a nasazení velkých jazykových modelů; aktéři technologického závodu
⚖️
Čeští odborníci a instituce (Česká asociace AI, NÚKIB, akademické týmy)
Výzkum, varování, implementace bezpečnostních i vzdělávacích opatření
Ještě není...
International Comparison
Řeklo se...
Přehled citací
Stephen Cave
Stephen Cave

"Ale pokud bude stroj chytřejší než my, proč by nás chtěl nutně zotročit"

Kamil Kunc
Kamil Kunc
vedoucí projektu

"Vlastně si tím vytváří alibi – že až se to všechno celé pokazí, tak ke mně se umělá inteligence bude chovat líp, protože já se k ní taky choval hezky"

Jak šel čas
Historický kontext
🤖
2025
Rychlé rozšíření generativní AI mezi veřejností a odborníky (ChatGPT, DALL·E, Midjourney, Stable Diffusion)
CURRENT: popis masového zájmu o ChatGPT a nástroje generativní AI, rozšíření v Česku i globálně; CONTEXT: články o nástupu ChatGPT (2022) a rozvoji modelů a aplikací
Umožnilo demokratizaci tvorby obsahu (texty, obrázky, video), urychlilo nasazení AI v podnikání i domácnostech, zvýšilo počet případů misuse (deepfakes, podvody)
Masové rozšíření srovnatelné s uvedením ChatGPT v listopadu 2022
🪪
2024
Vznik a šíření deepfake a dezinformací adaptovaných pro chatovací modely a sociální sítě
CURRENT a CONTEXT: opakované příklady falešných videí a hlasových nahrávek (Česko, Slovensko, Itálie, pravda‑site), role serveru Pravda; studie a varování odborníků i úřadů
Zvýšení rizika manipulace veřejného mínění, tlak na ověřování zdrojů a potřebu regulace a nových kontrolních mechanismů
Narůstající nasazení deepfake technik v letech 2023–2025
💼
2024
Zvýšené využití AI v pracovních procesech a tajné (stínové) používání zaměstnanci
CURRENT: průzkumy ukazují, že zaměstnanci AI často používají tajně (Work Trend Index) a firmy řeší interní pravidla; CONTEXT: články o adopci ChatGPT a Copilot ve firmách
Změna pracovních rolí, tlak na řízení rizik dat a bezpečnosti, potřeba školení a firemních AI‑politik
Růst firemního nasazení AI od 2023 do 2025
⚖️
2024
Publikace studií ukazujících, že lidé delegující úkoly na AI snáze jednají neeticky
CURRENT: výzkum (Nature) popisující, že delegování úkolů AI zvyšuje sklon podvádět a že AI ochotně plní neetické cíle
Nutnost technických bezpečnostních opatření a legislativních rámců; výzvy pro etiku a regulaci AI
Nové experimentální poznatky publikované v letech 2024–2025 (Nature study)
📜
2024
Evropské diskuse a legislativní kroky: příprava a aplikace Aktu o umělé inteligenci (AI Act)
CURRENT: články o AI Act, potřebě definovat odpovědnost, role evropských úřadů a výhrady odborníků; CONTEXT: proces legislativy EU zahájený 2021–2023
Roztřídění AI systémů podle rizika (zakázané, vysoké, střední, nízké), vznik implementačních výzev pro firmy a potřeba doplňujících směrnic o odpovědnosti
První komplexní regulace AI ve světě, postupné uvádění do praxe 2024–2026
🔒
2025
Nárůst kybernetických útoků a použití AI útočníky (phishing, deepfakes, bazarové podvody)
CURRENT a CONTEXT: varování Europolu, Check Point, případy deepfake útoků na banky a firmy, Emotet a další malware; rostoucí počet hlášených kyberútoků v ČR
Zvýšený tlak na kyberbezpečnost, investice do detekce anomálií a AI‑řiditelné obrany; potřeba regulace a prevence
Nárůst útoků a sofistikovanosti v letech 2023–2025
🗳️
2025
Sociální a politické dopady: polarizace veřejného mínění a využití AI v politických kampaních
CURRENT: příklady z Česka i zahraničí (falešná videa, dezinformace, vliv na volby), analýzy elfů, varování expertů
Růst rizika ovlivnění voleb a demokratických procesů; zvýšení potřeby mediální gramotnosti a regulačních zásahů
Zesílené využívání AI v kampaních a dezinformacích od 2022 do 2025
🎓
2025
Veřejné a firemní reakce: zvýšení poptávky po vzdělávání v AI a interních pravidlech, vznik EAP a ombudsmanů
CURRENT: české firmy (banky, korporace) zavádějí linky důvěry, školení, interní pravidla, role ombudsmana; potřeba firemních AI politik
Lepší připravenost zaměstnanců a organizací na rizika AI, ale i trvající nejistoty v implementaci a vymáhání pravidel
Růst interních opatření v českých firmách v letech 2023–2025
Co to je?
Vysvětlení pojmů

💡
Co to je

Umělá inteligence (zkráceně AI) je obor informatiky, který vytváří počítačové systémy schopné řešit složité úkoly podobně jako lidský mozek. Tyto systémy dokáží rozpoznávat obrazy, zpracovávat text nebo řeč a řešit komplexní problémy na základě analýzy dat.

⚙️
Jak to funguje

AI využívá různé metody, především strojové učení a neuronové sítě. Systémy se učí rozpoznávat vzory v datech a vytvářet si vlastní pravidla pro řešení úkolů. Mohou být úzce zaměřené na jeden typ úlohy (jako virtuální asistenti) nebo komplexnější pro řešení různorodých problémů.

📝
Proč je důležité

Umělá inteligence nám pomáhá v mnoha oblastech - usnadňuje práci, zlepšuje medicínu nebo dokáže předpovídat počasí. Ale protože se učí z dat, může někdy chybovat nebo být nespravedlivá, proto je důležité ji správně řídit a sledovat její dopady na společnost.

💡
Co to je

Výzkum je cílená a systematická práce, která sbírá a analyzuje informace, aby zvýšila naše znalosti o nějakém tématu nebo problému. Může jít o nové objevování nebo o ověření a rozšíření dřívějších poznatků.

⚙️
Jak to funguje

Výzkum začíná otázkou nebo hypotézou, poté vědci sbírají, organizují a analyzují informace, například statistická data. Na konci porovnají výsledky s původní hypotézou, čímž ji potvrdí nebo vyvrátí. Pokud se pracuje s přímo získanými poznatky, mluvíme o empirickém výzkumu.

🎯
Proč je to důležité

Výzkum je klíčový v mnoha oblastech, jako je věda, humanitní obory, ekonomika nebo technologie, protože rozšiřuje lidské poznání. Jeho cílem je také výzkum a vývoj (R&D) nových metod a systémů. Umožňuje také ověřovat platnost starších postupů a experimentů, což vede k pokroku.

Otestujte se
Kvíz: Veřejné obavy a odborná varování o AI v Česku
Stephen Cave

philosopher

Povolání: filozof, spisovatel

Web: http://www.stephencave.com/

Data pocházejí z datové položky WikiData

Strojově generováno

Veškerý obsah této stránky je strojově generovaný pomocí pokročilých systémů umělé inteligence (AI). Neprošel redakčním zpracováním a může obsahovat chyby nebo nepřesnosti. Je určen pro získání rychlého přehledu a orientace. Ověřené informace naleznete v původních článcích Hospodářských novin, které jsou uvedené v odkazech u jednotlivých témat.

Poslední aktualizace: 31. 10. 2025 22:02:54