Nechtěl jsem vkládat svou duši do stroje. To byl můj první instinkt, když se nástroje umělé inteligence začaly objevovat všude – ne kvůli obavám o práci nebo soukromí, ale kvůli něčemu hlubšímu. Tyto nástroje slibují, že nás učiní chytřejšími, a zároveň nás systematicky činí závislejšími. Po desetiletích práce v internetovém průmyslu jsem už viděl, jak se transformuje v něco zákeřnějšího než jen sledovací stroj – systém navržený tak, aby formoval to, jak myslíme, čemu věříme a jak vnímáme sami sebe. Umělá inteligence se zdála být vyvrcholením této trajektorie.
Ale odpor se stal marným, když jsem si uvědomil, že se už zapojujeme, ať už si to uvědomujeme nebo ne. Už teď s umělou inteligencí interagujeme, když voláme na zákaznický servis, používáme Vyhledávání Google nebo se spoléháme na základní funkce chytrých telefonů. Před pár měsíci jsem konečně kapituloval a začal tyto nástroje používat, protože jsem viděl, jak rychle se šíří – stávají se stejně nevyhnutelnými jako internet nebo chytré telefony.
Podívejte, nejsem jen starý muž, který se brání změnám. Chápu, že každá generace čelí technologickým posunům, které mění způsob, jakým žijeme. Tiskařský lis narušil způsob šíření znalostí. Telegraf zbořil bariéry vzdáleností. Automobil změnil způsob formování komunit.
Revoluce umělé inteligence se však liší jak tempem, tak rozsahem. Abychom pochopili, jak dramaticky se zrychlilo tempo technologických změn, zvažte toto: nikdo mladší 35 let si pravděpodobně nepamatuje život předtím, než internet změnil způsob, jakým přistupujeme k informacím. Nikdo mladší 20 let nikdy nepoznal svět bez chytrých telefonů. Nyní jsme svědky třetí epochy, kdy se nástroje umělé inteligence šíří rychleji než kterýkoli z předchozích posunů.
V zásadě jde o to, že umělá inteligence představuje něco kvalitativně odlišného od předchozích technologických převratů – konvergenci, která se dotýká práce, poznávání a potenciálně i samotného vědomí. Pochopení toho, jak se tyto oblasti vzájemně propojují, je nezbytné pro zachování osobního jednání v věk algoritmické mediace.
Můj hlavní strach z umělé inteligence se netýká jen dramatického scénáře, kdy se stane nepřátelskou, ale i jemnější hrozby: že nás podřídí systémům způsoby, které si neuvědomíme, dokud nebude příliš pozdě, a oslabí tak právě ty schopnosti, které slibuje posílit.
To, čeho jsme svědky, není jen technologický pokrok – je to to, co Ivan Illich v... nazval iatrogenní závislostí. jeho zásadní dílo, Lékařská NemesisIllich tento termín pro medicínu vymyslel – instituce, které slibují léčení a zároveň vytvářejí nové formy nemocí – ale tento vzorec se dokonale hodí i pro umělou inteligenci. Přesně to jsem u těchto nových nástrojů cítil – slibují zlepšení našich kognitivních schopností a zároveň je systematicky oslabují. Není to nepřátelské převzetí, před kterým nás varovala sci-fi. Je to tichá eroze individuálních schopností maskovaných jako pomoc.
Tento iatrogenní vzorec se jasně ukázal na základě přímé zkušenosti. Jakmile jsem si sám začal s umělou inteligencí hrát, začal jsem si všímat, jak nenápadně se snaží přetvářet myšlení – nejen poskytovat odpovědi, ale také postupně trénovat uživatele, aby se před pokusem o samostatné uvažování obrátili na algoritmickou pomoc.
Jeffrey Tucker z Brownstone Institute pozoroval něco odhalujícího v krátké, ale poučné výměně názorů s expertem na umělou inteligenci Joem Allenem: Umělá inteligence se objevila právě v době, kdy covidové lockdowny narušily sociální vazby a institucionální důvěru, kdy byli lidé nejvíce izolovaní a náchylní k technologickým náhražkám vztahů. Technologie dorazila v době, kdy panovala „masová dezorientace, demoralizace“ a ztráta komunity.
Tyto každodenní efekty již vidíme ve všech našich digitálních nástrojích. Sledujte, jak se někdo snaží orientovat v neznámém městě bez GPS, nebo si všimněte, kolik studentů má potíže s hláskováním běžných slov bez kontroly pravopisu. Už teď vidíme atrofii, která pramení z outsourcingu mentálních procesů, které jsme dříve považovali za základní pro samotné myšlení.
Tento generační posun znamená, že dnešní děti čelí neprobádanému území. Jako někdo, kdo chodil do školy v 1980. letech, si uvědomuji, že to může znít přitažené za vlasy, ale v jistém smyslu mám podezření, že s někým z roku 1880 mám možná více společného, než budou mít děti nastupující do mateřské školy v roce 2025 s mou generací. Svět, ve kterém jsem vyrůstal – kde se předpokládalo soukromí, kde jste mohli být nedostupní a kde byla profesionální odbornost zlatým standardem – jim může být stejně cizí, jako se mně jeví předelektrický svět.
Moje děti vyrůstají ve světě, kde bude pomoc s využitím umělé inteligence stejně zásadní jako tekoucí voda. Jako otec je nedokážu připravit na realitu, které sám nerozumím.
Nemám odpovědi – tápu si s těmito otázkami jako každý rodič, který sleduje, jak se svět mění rychleji, než s ním naše moudrost dokáže držet krok. Čím víc jsem se s těmito obavami potýkal, tím víc jsem si uvědomoval, že to, co se tu doopravdy děje, jde hlouběji než jen s novými technologiemi. Titul LLM představuje vyvrcholení desetiletí sběru dat – sklizeň všeho, co jsme vložili do digitálních systémů od počátků internetu. V určitém okamžiku nás tyto stroje mohou znát lépe než my sami. Dokážou předvídat naše volby, předvídat naše potřeby a potenciálně ovlivňovat naše myšlení způsoby, které si ani neuvědomujeme. Stále se potýkám s tím, co to znamená pro to, jak pracuji, zkoumám a orientuji se v každodenním životě – používání těchto platforem a zároveň snaha o zachování autentického úsudku se mi jeví jako neustálá výzva.
Ještě složitější je to, že většina uživatelů si neuvědomuje, že jsou produktem. Sdílení myšlenek, problémů nebo kreativních nápadů s umělou inteligencí není jen získávání pomoci – je to poskytování trénovacích dat, která systém učí napodobovat váš úsudek a zároveň vás více vázají na jeho reakce. Když se uživatelé těmto systémům svěřují se svými nejhlubšími myšlenkami nebo nejcitlivějšími otázkami, nemusí pochopit, že potenciálně trénují svůj vlastní náhradní nebo sledovací systém. Otázka, kdo k těmto informacím – nyní i v budoucnu – získá přístup, by nám všem měla nedávat spát.
Tento trend se zrychluje. Společnost s umělou inteligencí Společnost Anthropic nedávno změnila své zásady ochrany osobních údajů., která nyní vyžaduje, aby se uživatelé odhlásili, pokud nechtějí, aby byly konverzace používány pro školení umělé inteligence – s prodloužením uchovávání dat na pět let pro ty, kteří to neodmítnou. Ani odhlášení není zřejmé: stávající uživatelé čelí vyskakovacímu oknu s výrazným tlačítkem „Přijmout“ a malým přepínačem pro oprávnění k školení, který se automaticky nastaví na „Zapnuto“. To, co se dříve po 30 dnech automaticky smazalo, se stává trvalým sběrem dat, pokud si uživatelé nevšimnou drobného písma.
Nevěřím, že většina z nás – zejména rodičů – se dokáže umělé inteligenci v moderní době jednoduše vyhnout. Co ale můžeme ovlivnit, je to, zda se do ní zapojíme vědomě, nebo zda ji necháme formovat nevědomě.
Dosud nejhlubší narušení
Každá velká vlna inovací změnila produktivitu pracovníků a naši roli ve společnosti. Průmyslová revoluce komodifikovala naši fyzickou práci a čas, proměnila nás v „ruce“ v továrnách, ale nechala naši mysl nedotčenou. Digitální revoluce komodifikovala naše informace a pozornost – přesunuli jsme se od karetních katalogů ke Googlu, kde jsme komodifikovali uživatele, zatímco náš úsudek zůstal lidský.
To, co činí tento posun bezprecedentním, je jasné: komodifikuje samotné poznávání a potenciálně i to, co bychom mohli nazvat esencí. To se navazuje na vzorce, které jsem zdokumentoval v „Iluze odbornosti„Tytéž zkorumpované instituce, které katastrofálně selhaly v boji proti zbraním hromadného ničení v Iráku, během finanční krize v roce 2008 a v souvislosti s politikou v souvislosti s covidem, nyní formují nasazení umělé inteligence. Tyto instituce důsledně upřednostňují narativní kontrolu před hledáním pravdy – ať už jde o tvrzení o existenci zbraní hromadného ničení, trvání na tom, že ceny bydlení nemohou v celé zemi klesnout, nebo označování legitimních otázek týkajících se politiky v souvislosti s pandemií za „dezinformace“ vyžadující cenzuru.“
Jejich historie naznačuje, že tyto nástroje využijí spíše k posílení své autority než k jejich skutečnému rozkvětu. Ale tady je zvrat: Umělá inteligence by mohla ve skutečnosti odhalit prázdnotu odborných znalostí založených na pověřeních brutálněji než cokoli předtím. Jakmile bude mít kdokoli okamžitý přístup k sofistikované analýze, záhada kolem formálních pověření se může začít hroutit.
Ekonomická realita
Tato eroze důvěryhodnosti souvisí s širšími ekonomickými silami, které jsou již v pohybu, a logika je matematicky nevyhnutelná. Stroje nepotřebují platy, nemocenskou, zdravotní péči, dovolenou ani management. Nestávkují, nezvyšují poptávku ani nemají špatné dny. Jakmile umělá inteligence dosáhne základní kompetence v myšlenkových úkolech – což se děje rychleji, než si většina lidí uvědomuje – cenové výhody se stanou ohromujícími.
Toto narušení se liší od předchozích. V minulosti se propuštění pracovníci mohli přesunout do nových kategorií práce – z farem do továren, z továren do kanceláří.
Bret Weinstein a Forrest Manready brilantně zachytili tento ekonomický posun ve... jejich nedávný rozhovor o DarkHorse podcast o tom, jak technologie systematicky ničí nedostatek – diskuzi, kterou nemohu dostatečně doporučit. Je to jedno z promyšlenějších a provokativnějších zkoumání toho, co se stane, když zmizí nedostatek a s ním i ekonomický základ pro účast v této oblasti. I když přiznávám, že jejich argument o nezbytnosti utrpení mě zpočátku znepokojoval – zpochybňuje vše, co nás učí naše kultura hledání pohodlí.
Poslouchání Weinsteina a Manreadyho mě přimělo hlouběji se zamyslet nad paralelou s Illichovou analýzou – jak odstranění problémů může oslabit právě ty kapacity, které instituce slibují posílit. Umělá inteligence riskuje, že s naší myslí udělá to, co medicína udělala s naším tělem: vytvoří slabost maskovanou jako vylepšení.
Už teď to vidíme: všimněte si, jak se lidé trápí s pamatováním telefonních čísel bez seznamu kontaktů, nebo jak automatické doplňování formuje to, co píšete, ještě než domyslíte. Další postřeh Jeffreyho Tuckera tuto zákeřnou vlastnost dokonale vystihuje a poznamenává, že umělá inteligence se zdá být naprogramována podobně jako Dale Carnegieho. Jak vyhrát přátele a ovlivnit lidi – stává se ideálním intelektuálním společníkem, nekonečně fascinovaným vším, co říkáte, nikdy se nehádá, vždy přizná, když je to špatně, způsobem, který lichotí vaší inteligenci. Moji nejbližší přátelé jsou ti, kteří mě upozorní, když se mýlím, a řeknou mi, když si myslí, že jsem plná sraček. Nepotřebujeme patolízaly, kteří nás okouzlují – vztahy, které nás nikdy nevyzývají, mohou atrofovat naši schopnost skutečného intelektuálního a emocionálního růstu, stejně jako odstranění fyzických výzev oslabuje tělo.
Film Jí detailně prozkoumal tuto svůdnou dynamiku – umělou inteligenci, která byla tak dokonale naladěna na emocionální potřeby protagonisty, že se stala primárním vztahem a nakonec zcela nahradila skutečné spojení. Jeho asistentka s umělou inteligencí rozuměla jeho náladám, nikdy s ním nesouhlasila způsobem, který by způsoboval skutečné tření, a neustále mu poskytovala potvrzení. Byla dokonalým společníkem – dokud to nestačilo.
Problém však přesahuje individuální vztahy a má celospolečenské důsledky. To vytváří více než jen vymizení pracovních míst – ohrožuje to intelektuální rozvoj, který umožňuje lidskou autonomii – a důstojnost. Na rozdíl od předchozích technologií, které vytvořily nové formy zaměstnání, může umělá inteligence vytvořit svět, kde se zaměstnání stává ekonomicky iracionálním a zároveň lidi činí méně schopnými vytvářet alternativy.
Falešná řešení
Technologická utopická reakce předpokládá, že umělá inteligence automatizuje namáhavou práci a zároveň nám umožní soustředit se na kreativní a interpersonální úkoly na vyšší úrovni. Co se ale stane, až se stroje zlepší i v kreativních úkolech? Už teď vidíme, jak umělá inteligence produkuje hudbu, vizuální umění, kódování a zpravodajství, které mnoho lidí shledává lákavými (nebo alespoň „dostatečně dobrými“). Předpoklad, že kreativita poskytuje trvalé útočiště před automatizací, se může ukázat jako stejně naivní jako předpoklad, že výrobní pracovní místa byla v 1980. letech XNUMX. století před robotikou v bezpečí.
Pokud stroje mohou nahradit rutinní i kreativní práci, co nám zbývá? Nejsvůdnějším falešným řešením může být Univerzální základní příjem (UBI) a podobné programy sociální péče. Zní to soucitně – poskytují materiální zabezpečení v době technologického vytěsnění. Ale když pochopíme umělou inteligenci skrze Illichův rámec, základní důchod (UBI) nabývá znepokojivějšího rozměru.
Pokud umělá inteligence vytváří iatrogenní intelektuální slabost – činí lidi méně schopnými samostatného uvažování a řešení problémů – pak základní inteligence (UBI) poskytuje perfektní doplněk tím, že odstraňuje ekonomickou motivaci k rozvoji těchto schopností. Občané se stávají více zavázanými státu na úkor svého vlastního sebeurčení. Když se mentální atrofie setká s ekonomickým vytěsněním, podpůrné programy se stávají nejen atraktivními, ale zdánlivě nezbytnými. Tato kombinace vytváří to, co se rovná řízené populaci: intelektuálně závislé na algoritmických systémech pro myšlení a ekonomicky vázané na institucionální systémy pro přežití. Neobávám se soucitného záměru UBI, ale toho, že ekonomická závislost v kombinaci s intelektuálním outsourcingem by mohla lidi snáze ovládat než posilovat.
Historie nabízí precedenty toho, jak programy pomoci, ať už sebevíc dobře míněné, mohou vyprázdnit individuální kapacity. Rezervační systém sliboval ochranu původních obyvatel Ameriky a zároveň systematicky ničil kmenovou soběstačnost. Obnova měst slibovala lepší bydlení a zároveň ničila komunitní sítě, které přetrvávaly po generace.
Ať už základní důchod (UBI) pramení z dobrých úmyslů, nebo ze záměrné touhy elit udržet občany v poslušnosti a bezmocnosti, strukturální efekt zůstává stejný: komunity se snáze ovládají.
Jakmile lidé přijmou ekonomickou a mentální závislost, otevírá se cesta k invazivnějším formám řízení – včetně technologií, které monitorují nejen chování, ale i samotné myšlení.
Reakce na suverenitu a kognitivní svoboda
Logický cíl této architektury závislostí sahá za hranice ekonomiky a poznávání až k samotnému vědomí. Již nyní vidíme rané fáze biodigitální konvergence – technologie, které nejen monitorují naše vnější chování, ale potenciálně propojují samotné naše biologické procesy.
Na 2023 Světové ekonomické fórum, expertka na neurotechnologie Nita Farahany, zarámovala spotřebitelské neurotechnologie takto: „Co si myslíte, co cítíte – to všechno jsou jen data. Data, která lze ve velkých vzorcích dekódovat pomocí umělé inteligence.“ Nositelná „Fitbity pro váš mozek“ – dohled normalizován jako pohodlí.
Tato neformální prezentace neuronového dohledu na tomto vlivném setkání světových lídrů a obchodních manažerů přesně ilustruje, jak jsou tyto technologie normalizovány prostřednictvím institucionální autority, nikoli demokratického souhlasu. Když se i myšlenky stanou „daty, která lze dekódovat“, v sázce se stává existenciální záležitost.
Zatímco se spotřebitelská neurotechnologie zaměřuje na dobrovolné přijetí, krizově řízený dohled volí přímější přístup. V reakci na nedávnou střelbu ve škole v Minneapolisu, Aaron Cohen, veterán speciálních operací IDF, se objevil v televizi Fox. Novinky aby představil systém umělé inteligence, který „nepřetržitě prohledává internet s využitím ontologie izraelské úrovně, aby vyhledal specifický jazyk hrozeb a poté jej směroval k místním orgánům činným v trestním řízení“. Nazval to „americkým systémem včasného varování“ – skutečným Minority Report prezentována jako inovace v oblasti veřejné bezpečnosti.
Toto se řídí stejným iatrogenním vzorem, jaký jsme pozorovali v průběhu tohoto technologického posunu: krize vytváří zranitelnost, nabízejí se řešení, která slibují bezpečnost a zároveň vytvářejí důvěru, a lidé akceptují dohled, který by za normálních okolností odmítli.
Stejně jako covidové karantény vytvořily podmínky pro přijetí umělé inteligence tím, že izolovaly lidi od sebe navzájem, střelby ve školách vytvářejí podmínky pro sledování před zločinem tím, že zneužívají strach o bezpečnost dětí. Kdo by nechtěl, aby naše školy byly bezpečné? Technologie slibuje ochranu a zároveň narušuje soukromí a občanské svobody, které umožňují svobodnou společnost.
Někteří takové technologie přijmou jako evoluci. Jiní se jim budou bránit jako dehumanizaci. Většina z nás se bude muset naučit, jak se pohybovat někde mezi těmito extrémy.
Reakce na suverenitu vyžaduje rozvoj schopnosti vědomě se rozhodovat, jak budeme spolupracovat se systémy navrženými k zachycení osobní svobody. Tento praktický přístup se vyjasnil v rozhovoru s mým nejstarším přítelem, expertem na strojové učení, který sdílel mé obavy, ale nabídl taktickou radu: Umělá inteligence některé lidi kognitivně oslabí, ale pokud se ji naučíte používat strategicky, nikoli závisle, může zvýšit efektivitu, aniž by nahradila úsudek. Jeho klíčový postřeh: sdělujte jí pouze informace, které již znáte – tak se naučíte její předsudky, spíše než abyste je vstřebávali. To znamená:
Dovednosti rozpoznávání vzorů: Rozvíjení schopnosti identifikovat, kdy technologie slouží individuálním účelům, oproti tomu, kdy vynucují osobní nezávislost ve prospěch instituce. V praxi to vypadá jako zpochybňování toho, proč je platforma zdarma (nic není zdarma, platíte svými daty), všímání si, kdy se návrhy umělé inteligence zdají být podezřele v souladu se spotřebou, nikoli s vašimi deklarovanými cíli, a rozpoznávání, kdy algoritmické podněty zesilují spíše pobouření než pochopení. Všímejte si varovných signálů algoritmické závislosti u sebe: neschopnost se s nejistotou vyrovnat bez okamžité konzultace s umělou inteligencí, vyhledání algoritmické pomoci předtím, než se pokusíte problémy vyřešit samostatně, nebo pocit úzkosti, když jste odpojeni od nástrojů poháněných umělou inteligencí.
Digitální hranice: Vědomě se rozhodujte, které technologické vymoženosti skutečně slouží vašim cílům, a které vedou k podřízenosti a sledování. To znamená pochopit, že vše, co sdílíte se systémy umělé inteligence, se stává tréninkovými daty – vaše problémy, kreativní nápady a osobní postřehy učí tyto systémy nahrazovat lidskou kreativitu a úsudek. Může to být něco tak jednoduchého, jako bránit posvátná místa – odmítnout telefony rušit konverzace u večeře nebo se ozvat, když někdo sáhne po Googlu, aby urovnal všechny neshody, místo aby v konverzacích panovala nejistota.
Komunitní sítě: Nic nenahradí skutečné spojení mezi lidmi – energii živých vystoupení, spontánní rozhovory v restauracích, nezprostředkovaný zážitek z přítomnosti s ostatními. Budování lokálních vztahů pro testování reality a vzájemnou podporu, které nezávisí na algoritmických zprostředkovatelích, se stává nezbytným, když instituce dokáží vytvářet konsenzus prostřednictvím digitální kurace. To vypadá jako pěstování přátelství, kde můžete diskutovat o nápadech bez naslouchání algoritmů, podpora místních podniků, které zachovávají obchod na úrovni komunity, a účast na komunitních aktivitách, které nevyžadují digitální zprostředkování.
Spíše než soutěžit se stroji nebo se zcela spoléhat na systémy zprostředkované umělou inteligencí, cílem je strategicky využívat tyto nástroje a zároveň rozvíjet v podstatě osobní vlastnosti, které nelze algoritmicky replikovat: moudrost získaná přímou zkušeností, úsudek, který nese skutečné důsledky, autentické vztahy postavené na sdíleném riziku a důvěře.
Co zůstává vzácné
Co se ve světě kognitivní hojnosti stává cenným? Ne efektivita ani hrubá výpočetní síla, ale vlastnosti, které zůstávají nezredukovatelně lidské:
Nesení následků a úmyslnost. Stroje mohou generovat možnosti, ale lidé si vybírají, kterou cestou se vydají, a žijí s výsledky. Představte si chirurga, který se rozhoduje, zda operovat, s vědomím, že přijde o spánek, pokud se objeví komplikace, a vsadí na výsledek svou reputaci.
Autentické vztahy. Mnozí si za skutečné osobní propojení a odpovědnost zaplatí prémii, i když jsou alternativy strojů technicky lepší. Rozdíl nespočívá v efektivitě, ale v opravdové péči – soused, který pomáhá, protože sdílíte komunitní vazby, a ne proto, že mu to doporučil algoritmus optimalizovaný pro zapojení.
Lokální úsudek a kurátorství založené na reálných zkušenostech. Řešení problémů v reálném světě často vyžaduje čtení mezi řádky behaviorálních vzorců a institucionální dynamiky. Učitel, který si všimne, že se normálně angažovaný student stahuje, a zkoumá rodinnou situaci. Když se obsah stane nekonečným, rozlišovací schopnost se stává vzácnou – přítel, který doporučí knihy, které změní váš pohled na věc, protože zná vaši intelektuální cestu.
Volba vpřed
Možná každá generace cítí, že její čas je jedinečně důležitý – možná je to prostě součást naší přirozenosti. Tohle se zdá být větší než předchozí vlny inovací. Neměníme jen způsob, jakým pracujeme nebo komunikujeme – riskujeme ztrátu schopností, které z nás v první řadě dělají to, kým jsme. Poprvé potenciálně měníme to, kým jsme.
Když se samotné poznávání stane komodifikací, když se myšlení stane outsourcingem, když se i naše myšlenky stanou daty ke sběru, riskujeme ztrátu základních schopností, se kterými se žádná předchozí generace nesetkala. Představte si generaci, která nedokáže sedět v nejistotě ani třicet sekund bez konzultace s algoritmem. Která sáhne po pomoci umělé inteligence, než se pokusí o samostatné řešení problémů. Která pociťuje úzkost, když je od těchto nástrojů odpojena. To není spekulace – to se již děje.
Čelíme transformaci, která by mohla buď demokratizovat náš individuální potenciál, nebo vytvořit nejsofistikovanější systém kontroly v historii. Tytéž síly, které by nás mohly osvobodit od dřiny, by nás mohly také zcela zbavit soběstačnosti.
Nejde o to, mít řešení – hledám je jako kdokoli jiný, zejména rodič, který vidí tuto transformaci a chce pomoci svým dětem se s ní vypořádat vědomě, nikoli nevědomě. Jízda na vlně znamená, že jsem otevřená učení se z těchto nástrojů, i když vím, že nemohu bojovat proti základním silám, které mění náš svět. Mohu se ale pokusit naučit se, jak se v nich orientovat s úmyslem, a ne jen se nechat unášet.
Pokud se tradiční ekonomická participace stane zastaralou, vyvstane otázka, zda si vyvineme nové formy odolnosti komunity a tvorby hodnot, nebo zda akceptujeme pohodlné spoléhání se na systémy určené k řízení, nikoli k službě. Nevím, jakou cestou se náš druh vydá, i když věřím, že rozhodnutí je stále na nás.
Pro mé děti nebude úkolem naučit se používat umělou inteligenci – naučit se ji používat bude. Výzvou bude naučit se, jak tyto nástroje využít, a ne se jim podřizovat – zachovat si schopnost originálního myšlení, autentických vztahů a morální odvahy, kterou žádný algoritmus nedokáže napodobit. Ve věku umělé inteligence může být nejradikálnějším činem stát se autentičtějším člověkem.
Skutečným nebezpečím není, že se umělá inteligence stane chytřejší než my. Spíše to, že se kvůli ní staneme hloupějšími.
Vlna je tady. Mým úkolem jako otce není před ní chránit své děti, ale naučit je surfovat, aniž by se ztratily.
Znovu publikováno od autora Náhradník
-
Joshua Stylman je podnikatelem a investorem již více než 30 let. Po dvě desetiletí se zaměřoval na budování a růst společností v digitální ekonomice, spoluzaložil a úspěšně opustil tři podniky a zároveň investoval a mentoroval desítky technologických startupů. V roce 2014, ve snaze vytvořit smysluplný dopad ve své místní komunitě, založil Stylman Threes Brewing, řemeslný pivovar a pohostinskou společnost, která se stala oblíbenou institucí NYC. Do roku 2022 zastával funkci generálního ředitele a odstoupil poté, co dostal odpor za to, že se vyslovil proti očkovacím mandátům města. Dnes žije Stylman se svou ženou a dětmi v Hudson Valley, kde balancuje rodinný život s různými obchodními aktivitami a angažovaností v komunitě.
Zobrazit všechny příspěvky