Жасанды интеллект екі жылдан кейін адамдарға қауіп төндіруі мүмкін – зерттеу

Жасанды интеллект екі жылдан кейін адамдарға қауіп төндіруі мүмкін – зерттеу

Жасанды интеллект екі жылдан кейін адамдарға қауіп төндіруі мүмкін – зерттеу
ашық дереккөзі
50582
Ұлыбритания премьер-министрінің жасанды интеллект (ЖИ) жөніндегі жұмыс тобының кеңесшісі Мэтт Клиффордтың айтуынша, жасанды интеллектінің болашақтағы мүмкіндіктері үлкен алаңдаушылық туғызуда. Ол алдағы екі жылда жасанды интеллект тым күшті әрі басқарылмайтын деңгейге жетеді деп болжайды. Сол себепті осы уақыт аралығын оны бақылап, реттеу үшін пайдалануымыз керек. Мысалы, болашақта биологиялық қаруды жасау немесе ауқымды кибершабуылдарды жүзеге асыру үшін ЖИ қолданылуы мүмкін. Бұл адамдардың қауіпсіздігі мен өміріне үлкен қауіп төндіруі ықтимал. Сонымен қатар ғалым ЖИ үлгілері соншалықты тез дами алатынын, олар күткеннен асып түсетінін және күтпеген қауіптер тудыратынын атап өтті. Мұндай қауіптің алдын алу үшін Клиффорд ЖИ жүйелерінің қауіпсіздігі мен реттелуіне жауап беретін құрылым құруға шақырады. Ол, сондай-ақ, күтпеген салдар мен тәуекелдердің алдын алу үшін ЖИ үлгілерін түсіну мен бақылаудың маңыздылығын атап көрсетеді. Осындай пікірді ЖИ әзірлеу саласындағы басқа сарапшылар да айтып отыр, олар модельдерді кеңінен енгізер алдында аудит жүргізуге және бағалауға шақырады. Клиффорд, сонымен қатар, сарапшылар қол қойған хатқа сілтеме жасап, онда ЖИ ядролық қару мен пандемиямен салыстырылатын экзистенциалды қауіп ретінде қарастырылатынын айтты. Бұл хат болашақтағы ықтимал қауіптер туралы хабардар болу және олардың алдын алу үшін шаралар қабылдау қажеттігін көрсетеді. Осы жағдайларды ескере отырып, жасанды интеллектінің дамуы мен қолданылуын бақылау үшін шаралар қабылдау өте маңызды. Саясаткерлер, зерттеушілер мен әзірлеушілер ЖИ жүйелерінің дамуы мен қолданылуын қамтамасыз ету үшін бірігуі керек. Бұл жерде негізгі аспектілердің бірі – ЖИ жүйелерінің қауіпсіздігі мен этикасына жауап беретін реттеу құрылымдары мен механизмдерін құру. Бұған сенімді алгоритмдерді әзірлеу, қабылданған ЖИ шешімдерінің ашықтығы мен түсіндірілуін, сондай-ақ жеке деректерді қорғауды қамтамасыз ету және технологияны теріс пайдаланудың алдын алу кіреді. Сонымен қатар қуатты ЖИ модельдерін енгізер алдында тәуелсіз аудит және бағалау жүргізу қажеттілікке айналады. Бұл ықтимал тәуекелдер мен осалдықтарды анықтауға көмектеседі және ЖИ жүйелерін жақсырақ түсінуге әрі бақылауға мүмкіндік береді. Бұдан бөлек, ұйымдар мен билік технологияның дамуын тиімді басқаруға және бақылауға қабілетті сарапшылардың болуын қамтамасыз ету үшін ЖИ мамандарын оқытуға, оларды дамытуға назар аударуы керек. Әртүрлі елдер мен ұйымдар арасында білім мен тәжірибе алмасу ЖИ саласындағы ең жақсы тәжірибелер мен қауіпсіздік стандарттарын әзірлеу үшін де пайдалы болуы мүмкін. Қорыта айтқанда, қоғамдық талқылау және ЖИ шешім қабылдау процесіне қатысты маңызды рөл атқарады. Бірлескен күш-жігер мен жаһандық көзқараспен ғана жасанды интеллектінің қауіпсіздігін қамтамасыз етуге, ықтимал қауіптерді азайтуға және оның қоғамға, жалпы адамзатқа оң әсерін барынша арттыруға болады.

Дереккөз: involta.media

Серіктес жаңалықтары