W czwartek szef Microsoftu, Brad Smith, ogłosił, że jego największe obawy związane ze sztuczną inteligencją dotyczą rosnącego niepokoju związanego z deepfake’ami i sztucznymi mediami zaprojektowanymi do oszukiwania. donosi Reuters.
Smith wygłosił swoje uwagi, ujawniając „Plan for Public Governance of Artificial Intelligence” w przemówieniu wygłoszonym przez V świat planetyMuzeum Sztuki Językowej w Waszyngtonie Jego obawy pojawiają się, gdy rozmowy o regulacjach AI stają się coraz bardziej popularne, co wynika głównie z popularności ChatGPT OpenAI i wycieczka polityczna Dyrektor generalny OpenAI, Sam Altman.
Smith wyraził chęć pilnego sformułowania sposobów odróżnienia oryginalnych obrazów lub filmów od tych generowanych przez sztuczną inteligencję, gdy mogą one zostać wykorzystane do nielegalnych celów, w szczególności w destabilizacji dezinformacji i społeczeństwa.
„Będziemy musieli zająć się problemami związanymi z deepfake’ami. Będziemy musieli zająć się naszymi obawami, w szczególności dotyczącymi większości zagranicznych operacji cybernetycznych oraz rodzajów działań, które już prowadzą rosyjski i chiński rząd” Smith powiedział, według Reutera. „Musimy podjąć kroki w celu ochrony przed celową zmianą legalnych treści. Oszukać lub oszukać ludzi za pomocą sztucznej inteligencji”.
Smith naciskał również na wprowadzenie licencji na istotne formy sztucznej inteligencji, argumentując, że takie licencje muszą wiązać się z obowiązkiem ochrony przed zagrożeniami bezpieczeństwa fizycznego, cybernetycznego lub narodowego. „Będziemy potrzebować nowej generacji kontroli eksportu, przynajmniej ewolucji naszych kontroli eksportu, aby zapewnić, że modele te nie zostaną skradzione lub wykorzystane w sposób naruszający krajowe wymogi kontroli eksportu” – powiedział.
W zeszłym tygodniu Altman pojawił się w Senacie USA i wyraził swoje obawy dotyczące sztucznej inteligencji, mówiąc, że rodząca się branża potrzebuje regulacji. Altman, którego firma OpenAI jest wspierana przez Microsoft, wezwała do globalnej współpracy w zakresie sztucznej inteligencji i zachęt do przestrzegania zasad bezpieczeństwa.
W swoim przemówieniu w czwartek Smith powtórzył te uczucia i nalegał, aby ludzie zostali pociągnięci do odpowiedzialności za problemy spowodowane przez sztuczną inteligencję. Zaapelował o środki bezpieczeństwa w systemach sztucznej inteligencji, które kontrolują infrastrukturę krytyczną, taką jak sieć elektryczna i zaopatrzenie w wodę, aby zapewnić nadzór człowieka.
Starając się zachować przejrzystość technologii sztucznej inteligencji, Smith wezwał programistów do opracowania systemu wzorców „poznaj swojego klienta” do monitorowania sposobu wykorzystania technologii sztucznej inteligencji i informowania opinii publicznej o treściach generowanych przez sztuczną inteligencję, ułatwiając identyfikację sfabrykowanych treści. Idąc tym tropem, firmy takie jak Cegła suszona na słońcuA Google i Microsoft pracują nad sposobami znak wodny Lub nazwij treść generowaną przez sztuczną inteligencję w inny sposób.
Deepfake jest przedmiotem badań firmy Microsoft od lat. We wrześniu dyrektor naukowy firmy Microsoft, Eric Hurvitz Napisał artykuł naukowy Tematy dotyczące niebezpieczeństw związanych zarówno z interaktywnymi deepfake’ami, jak i tworzeniem syntetycznych historii zostały omówione w a Artykuł 2020 W FastCompany tego autora, który wspomniał również o wcześniejszych wysiłkach Microsoftu w wykrywaniu deepfake’ów.
Tymczasem Microsoft jednocześnie dąży do włączenia technologii sztucznej inteligencji opartej na tekście i obrazie do swoich produktów, w tym Office i Windows. Jego wstępne wprowadzenie na rynek niewykwalifikowanego i certyfikowanego chatbota Bing (opartego na wersji GPT-4) w lutym wywołało głębokie emocjonalne reakcje użytkowników. tak Rozpal ukryte lęki Ta dominująca na świecie superinteligencja może być tuż za rogiem, React twierdzą niektórzy krytycy Jest to część świadomej kampanii marketingowej od dostawców AI.
Pozostaje więc pytanie: co oznacza dla firm takich jak Microsoft sprzedawanie tego samego produktu, przed którym nas ostrzegasz?