Umělá inteligence hýbe v posledních měsících světem čím dál tím intenzivněji, přičemž vzhledem k tempu, které nabral její vývoj, se úplně nezdá, že by se měla tato skutečnost v dohledné době jakkoliv změnit. Spolu s přibývajícími možnostmi využití AI se však ozývá i čím dál tím víc hlasů, které před ní varují. Poměrně překvapivě se s podobným varováním nyní ozvali i zaměstnanci zřejmě nejznámější AI společnosti světa, konkrétně OpenAI. Ti varují konkrétně před nebezpečími pokročilé umělé inteligence v kombinaci s nedostatečným dohledem nad společnostmi, které na AI pracují.
Současní i bývalí zaměstnanci společnosti OpenAI a Google DeepMind sdíleli před pár hodinami otevřený dopis, kterým se snaží na rizika umělé inteligence jako takové poukázat. V dopise zaměstnanci naznačují konkrétně to, že existuje spousta rizik, kterým může lidstvo v souvislosti právě s vývojem umělé inteligence čelit. Na mysli přitom nemají katastrofické scénáře typu Terminátor, ale spíš prohlubování nerovnosti mezi lidmi, snažší manipulace s masami či jednoduché šíření dezinformací. Všechny tyto problémy mohou v kombinaci s případnou ztrátou kontroly nad autonomními systémy AI vést v krajním případě až k vyhynutí lidstva, kvůli čemuž je třeba být extrémně opatrní.
Problém pak visí zaměstnanci i v tom, že spousta společností pracujících na AI disponuje velkými finančními prostředky, které jim umožňují pokračovat ve vývoji ve velkém tempu ve snaze udávat na tomto poli trendy. A právě kvůli snaze být v AI světě v popředí je tu riziko, že jsou tyto společnosti neregulovatelné, jelikož nepřiznávají veškeré své poznatky. Právě to může přitom vést ke značným problémům. „Dokud neexistuje účinný státní dohled nad těmito společnostmi, jsou současní a bývalí zaměstnanci jedni z mála lidí, kteří je mohou pohnat k odpovědnosti před veřejností. Přesto nám široké dohody o mlčenlivosti brání vyjádřit své obavy, s výjimkou těch společností, které tyto problémy možná neřeší. Běžná ochrana whistleblowerů je nedostatečná, protože se zaměřuje na nezákonnou činnost, zatímco mnoho rizik, kterých se obáváme, zatím regulováno není,“ stojí konkrétně v dopise.
V tom následně zaměstnanci stojící za textem vyzývají k následujícím věcem:
- Vyhněte se vytváření nebo prosazování dohod, které brání kritice v souvislosti s riziky.
- Nabídněte zaměstnancům ověřitelně anonymní proces, který jim umožní upozornit představenstvo, regulační orgány a nezávislé organizace s příslušnými odbornými znalostmi na obavy související s riziky.
- Podporujte kulturu otevřené kritiky, která umožní zaměstnancům vznášet obavy týkající se technologií souvisejících s riziky před veřejností, představenstvem, regulačními orgány a dalšími subjekty, pokud je chráněno obchodní tajemství.
- Vyvarujte se odvetných opatření vůči zaměstnancům, kteří veřejně sdílejí důvěrné informace související s riziky poté, co selhaly jiné postupy.
Jelikož je dopis adresován primárně společnostem vyvíjejícím AI, jsou body výzvy logicky směrovány přímo na ně. Zda se jimi budou řídit je ale samozřejmě otázkou, protože by to mohlo zčásti znamenat i to, že se vývoj jejich AI projektů zpomalí. To ostatně dokládá i situace přímo v OpenAI, které s podobnou výzvou absolutně nesouhlasí a svým zaměstnancům pohrozilo, že pokud budou takto veřejně AI kritizovat, mohou přijít tučné pokuty i vyhazovy. I z toho důvodu je tak pod dopisem pouhých 13 podpisů.
Jde ten Recall vypnout? Když pominu fakt, že opravdu nestojím o to, aby mi něco dělalo screenshoty obrazovky a pak to analyzovalo, tak nejsem ochotná tomu vyhradit místo, sice mám 2 TB SSD, ale pro svoje důležitá data (=hry 🙂 ) a ne pro něco, co nechci používat.