„Zatímco my se učíme používat umělou inteligenci, ona se učí používat nás. Yuval Harari na summitu OSN AI for Good
Celý článek si můžete poslechnout v audioverzi zde:
27.8.2023
Historik Yuval Noah Harari na globálním summitu OSN AI for Good Global Summit říká, že „zatímco my se učíme používat AI, ona se učí používat nás“, a že bychom měli zpomalit její zavádění, nikoli vývoj.
Ve čtvrtečním projevu na zasedání Mezinárodní telekomunikační unie (ITU) Organizace spojených národů AI for Good Global Summit na téma „ Zábrana potřebná pro bezpečnou a odpovědnou AI “ Harari uvedl, že AI by se měla nadále vyvíjet, ale neměla by být nasazována bez bezpečnostních kontrol a předpisů.
„Zatímco se učíme používat AI, ona se učí používat nás,“ řekl Harari a dodal: „Je velmi obtížné zastavit vývoj AI, protože máme mentalitu závodů ve zbrojení . Lidé si jsou vědomi – aspoň někteří – nebezpečí, ale nechtějí zůstat pozadu.
„ Ale opravdu zásadní věcí, a to je dobrá zpráva, je zpomalit nasazení – ne vývoj ,“ dodal.
Historik přirovnal vývoj umělé inteligence k tomu, že má virus v laboratoři, s tím, že je v pořádku jej vyvinout, ale ne nasadit jej na veřejnost.
„Můžete mít ve své laboratoři extrémně sofistikovaný nástroj AI, pokud jej nenasadíte do veřejné sféry. To je méně nebezpečné,“ řekl Harari.
„Víte, je to, jako byste měli tento velmi nebezpečný virus ve své laboratoři, ale nevypouštěli byste ho do veřejné sféry.“ to je v pořádku. Je tam jistota bezpečí.“
Stejně jako u farmaceutických společností a výrobců automobilů musí projít bezpečnostními kontrolami, Harari tvrdil, že totéž by mělo platit pro AI.
Na téma deepfakes a roboty generované umělou inteligencí Harari řekl: „ Nyní je poprvé v historii možné vytvořit falešné lidi – vytvořit miliardy falešných lidí – o kterých komunikujete s někým online a o kterých nevíte. je to skutečný člověk nebo robot.
„Pravděpodobně za rok po tomto rozhovoru, který teď vedeme, bude téměř nemožné si být jistý, zda mluvíte s deepfakeem nebo se skutečným člověkem.“
„Pokud se to stane, udělá to se společností to, co hrozí, že falešné peníze způsobí finančnímu systému.“
Historik dodal: „Pokud nemůžete vědět, kdo je skutečný člověk a kdo je falešný člověk, zhroutí se důvěra a s ní přinejmenším svobodná společnost. Možná si diktatury nějak poradí, ale ne demokracie.“
Harari objasnil, že vytváření falešných lidí bylo v pořádku, pokud tak byli označeni a nebyli vydáváni za skutečné – „Potřebuji vědět, jestli je to skutečný člověk, nebo ne,“ řekl.
Mezinárodní telekomunikační unie je specializovanou agenturou Organizace spojených národů pro informační a komunikační technologie – ICT.
Harari několikrát vystoupil na výročních setkáních Světového ekonomického fóra (WEF) v Davosu, kde prohlásil: „My lidé bychom si měli zvyknout na myšlenku, že už nejsme tajemné duše; jsme nyní hacknutelná zvířata.“
Harari ve svém projevu na WEF v roce 2020 řekl: „K hacknutí lidských bytostí potřebujete hodně biologických znalostí, hodně výpočetního výkonu a hlavně hodně dat.
„Pokud o mně máte dostatek dat a dostatek výpočetního výkonu a biologických znalostí, můžete hacknout mé tělo, můj mozek, můj život. Můžete dosáhnout bodu, kdy mě budete znát lépe, než se znám já sám.“
S touto mocí hackovat lidské bytosti, Harari řekl: „lze ji samozřejmě použít pro dobré účely, jako je poskytování mnohem lepší zdravotní péče, ale pokud tato moc padne do rukou Stalina 21. století, výsledkem bude nejhorší totalitní režimu v dějinách lidstva a už máme řadu uchazečů o místo Stalina 21. století.“
Ve svém projevu na WEF Growth Summit 2023 během panelu na téma „ Growth Hotspots: Harnessing the Generative AI Revolution “ Michael Schwarz z Microsoftu tvrdil, že pokud jde o umělou inteligenci, bylo by nejlepší ji neregulovat, dokud se nestane něco špatného , aby nedošlo k potlačení potenciálně větší výhody.
„ Jsem si docela jistý, že ano, umělou inteligenci budou používat špatní herci; a ano, způsobí skutečnou škodu; a ano, musíme být velmi opatrní a velmi ostražití ,“ řekl Schwarz panelu WEF.
Když byl dotázán na regulaci generativní umělé inteligence, hlavní ekonom Microsoftu vysvětlil:
„Jaká by měla být naše filozofie regulace AI? Je jasné, že to musíme regulovat a myslím, že moje filozofie je velmi jednoduchá.
„ Umělou inteligenci bychom měli regulovat tak, abychom s vaničkou nevyhazovali i dítě .
„Takže si myslím, že regulace by neměla být založena na abstraktních principech.
„Jako ekonom mám rád efektivitu, takže zaprvé bychom neměli regulovat umělou inteligenci, dokud neuvidíme nějakou smysluplnou škodu, která se skutečně děje – ne smyšlené scénáře .“
Dne 23. ledna 2023 Microsoft prodloužil své partnerství s OpenAI – tvůrci ChatGPT – a investoval dalších 10 miliard dolarů nad rámec „1 miliardy dolarů, které Microsoft nalil do OpenAI v roce 2019 a další kolo v roce 2021“, uvádí Bloomberg .
článek vyšel: 7.7.2023
všechny důležité informace najdete tady: https://www.volnyblog.news
Leave a Reply
Want to join the discussion?Feel free to contribute!