Осы саладағы мамандар пікір білдірді
Астанада халықаралық және отандық сарапшылар Қазақстанда жасанды интеллектіні дамыту мен реттеу мәселесін талқылады, деп хабарлайды Halyq Uni тілшісі.
Caps Unlock орталығы Қазақстандағы Еуропалық одақтың Өкілдігімен серіктестікте ұйымдастырған сапартамалық кездесуде мамандар елімізде жасанды интеллектіні дамыту үшін стратегиялар мен қағидаттарды талқылады.
CAPS Unlock атқарушы директоры Аида Айдарқұлованың пікірінше, елімізде бұл салаға қатысты кешенді зерттеулер жоқ.
«ЖИ реттеу өзекті мәселе екеніне күмән жоқ. Болып жатқан өзгерістер мен жаңалықтар бұл салада біраз даму барын көрсетіп отыр. Бірақ біз естіп, көріп жатқан нәрселер бір-біріне қарама-қайшы келеді. Бұған дейін Цифрлық даму министрлігі ЖИ реттеуге асықпау керек екенін айтты. Екінші жағынан, министрлікте ЖИ бойынша комитет құрылды. Үшінші жағынан, жылдың соңына дейін еліміз Цифрлық кодекс қабылдайын деп жатыр. Сонымен реттейміз бе, жоқ па түсініксіз. Реттемейтін болса, цифрлық кодекс не туралы болмақ? Оған енгізбейтін болса, алдағы 2-3 жылдың ішінде қайта қарастыратын болса, бюджеттен қаржы бөлу қажет болады», - деді ол.
Сондай-ақ ұйым жетекшісі Қазақстан билігі бұл салаға жалпыға түсінікті ойын ережесін бекітіп алуы керек деп есептейді.
Жеке деректер туралы заң бар. Бұл заң ЖИ-мен бірге қолма-қол жүреді. Өйткені ЖИ тікелей деректермен жұмыс істейді, бәрібір байланыс бар. Сондықтан жеке деректерге қатысты бәрібір реттеу керек. Бүгінгі күні биометриялық деректер жиналып жатыр: eGov.kz, банктер, мемлекеттік, әлеуметтік ғимараттар мен Сергек камераларында бар. Әсіресе Сергек камералары – таза ЖИ, ол жаппай енгізілсе, демек реттеу де бар. Мемлекет рұқсат берсе, ол да реттеуге жатады. Енді оның алдағы уақытта қалай дамитыны, ол реттеуге байланысты. Қазірден бастап ойынның шарттарын жазып берсе, сол бағытта дамиды. Этика стандарттары немесе қауіпсіздік мәселесіне қатысты «мына сызықтан өтуге болмайды» деп жазып беруі керек, - деді Айдарқұлова.
Еуропалық саясатты зерттеу орталығының директоры, жасанды интеллект бойынша бойынша жоғары деңгейдегі Еуропалық сарапшылар тобының мүшесі Андреа Ренда ЕО бұл технологияны қалай реттегені туралы айтып берді. Еуропа алдымен ЖИ бойынша резолюция қабылдап, кейін ол тиісті заңды қабылдауға негіз болған. 2018 жылы 52 сарапшыдан құрылған топ ЖИ қолдану этикасын әзірлеген.
«ЖИ ол тек қарапайым технология емес, ол қолданыстағы заңнамалар мен этика принциптеріне сай келуге тиіс. Бұдан бөлек ол сенімді жүйе болуы керек. Атап айтқанда ол сыртқы шабуылдарға немесе оның жұмысын тоқтатуға тырысатын соққыларға қарсы төтеп бере алуы қажет. Біз бұл жерде киберқауіпсіздік туралы айтып отырмыз. Еуроодақ бұл айтылғандар орындалған жағдайда сенімді ЖИ бола алады деп есептейді. Бұл этикалық нормалар ЖИ сенімділігін қамтамасыз ету үшін төрт негізгі принципті белгілейді. Автономдылықпен қамтамасыз ету қажет. ЖИ реттеу мүмкіндігінде көптеген шектеу бар. Біз жүйені пайдалану кезінде адамның немесе роботтың тарапынан болатын қандай да бір бұзушылықтардың алдын алуымыз керек», - деді ол.
ЖИ шешім қабылдайтын шешім – ол адамның қабылдайтын шешімі емес. Сондықтан сарапшы жүйеге қолданылатын тиісті принциптер әзірленуі керек деп есептейді.
«Бұл принциптер қандай да бір келеңсіздіктер болған жағдайда жауапқа тартуға негіз болады. Бұның бірінші шешімі – жасанды интеллектіні технология ретінде реттеу. Бірақ реттеу ЖИ арнайы қолданудың қосымшасында анықталған. Біз технологияны бар болғаны үшін айыптай алмаймыз. Мәселе ол технологияны тәжірибеде қолдануда болып отыр. Бұл жерде ЖИ қай қосымшасын пайдалану тұрғысынан тәуекелі жоғары әрі басқа қандай технологиялардың жұмысына қауіп тудырады деген сұрақ туындайды. Адам құқығын бұзу, еркіндігі мен қауіпсіздігіне қауіп төндіру тәуекелдері туралы айтып отырмыз. Мысалы, жүргізушісіз жүретін көлік немесе басқа да ЖИ жүйелері әлсіз қорғалған болса, хакерлер ол жүйені бұзып, соңы апатқа әкелетін жағдайға жеткізуі мүмкін. ЕО үшін фундаментальды құқық – негізгі принцип, біз кемсітушіліктің кез келген түріне қарсымыз. Сондықтан ЖИ пайдалану кезінде бұған жол беруге мүлдем болмайды», - деді сарапшы.
«ЖИ-ді манипуляция жасау үшін пайдалануға тыйым салынады»
Сондықтан ол технологияның қауіпсіздік мәселесін ЖИ-дің кейбір қосымшасын коммерциялизациялағанға дейін көтеру керек деп есептейді. ЕО тиісті құжатты әзірлеумен 3 жыл айналысқан.
«Көптеген ЖИ өнімі «ЕО-да өндірілді» деген белгімен таңбаланбаған. Жасанды зиятты реттеумен айналысатындардың идеясы сол гигиенаны қалыптастырып, өнімнің заңнамаға сай келтіру болып отыр. 3 жыл бойы тиісті құжатты әзірлеп, нәтижесінде ЖИ-дің нақты классификациясын жасадық. ЖИ қолданудың тәуекелі тым жоғары салалар бар. Олар манипуляция жасауға тым жақын тұр, тіпті қауіп тудыруы мүмкін. Мысалы, Қытайда бұл технологияны пайдалану салдарынан халықтың әлеуметтік рейтингі қалыптасты. ЕО бұндай позицияға сын көзбен қарайды. Өйткені кез келген адамның таңдау құқығы бар. Мемлекет бұл мәліметтермен манипуляция жасап отыр. Ең алдымен ЖИ ол қоғамның игілігі үшін, машиналар адамға зиянын тигізбей, керісінше пайдасына жарау керек. Адам машинаның құрсауында қалмауы керек. Сондықтан біз машиналарды пайдалану ережесін қарастыруыға тиіспіз. Былтырғы жылдың соңында ЕО-ның барлық мүшесі келісімге келіп, ЖИ туралы заңның соңғы нұсқасын қабылдадық. Онда технологияны манипуляция жасау үшін, қасақана заң бұзушылық жасау үшін қолдануға, сондай-ақ детективтік мақсатта пайдалануға тыйым салынған. Бұған қоса интернеттегі мәліметтер негізінде мәліметтер базасын құру немесе қауіпсіздік камераларының жазбаларын жинауға, қоғамдық орындардағы бейнебақылау камералары арқылы адамның биометриялық мәліметтерің+н жинауға тыйым салынады», - деді Андреа Ренда.
Сарапшы ЕО-да билік қоғамға қауіп төндіретін терроризм, әлеуетті қауіп-қатер болса, немесе бала жоғалып кеткен жағдайда ғана қоғамдық бейнебақылау камераларының мәліметтерін пайдалануға рұқсат берілетінін атап өтті.
«Технология адам құқығына зиянын тигізбеуі керек»
Эстонияның Қазақстандағы Төтенше және Өкілетті Елшісі Тоомас Тирстің пікірінше, ЖИ реттеуді алдымен заңнан бастау керек.
«Заң ол реттеуді көздейді. Эстония жасанды интеллектке қатысты 3 тұжырымдама қабылдады. Сондай-ақ ашық мәліметтердің пайдаланылуын ескере отырып, бөлек мәліметтер стратегиясы бар. Біз алғаш рет цифрлық үкіметті дамытқанда ең алдымен адам құқығының сақталуына назар аудардық. Бұл – негізгі база. Барлық қызметіміз бен ЖИ қызметтері де адамға, соған негізделген. Сондай-ақ біз өз тілімізді қорғауымыз керек. Бұл машиналар тек үлкен тіл моделіне қатысты жұмыс істемейді. Біз өз тілімізді, мәдениетімізді қорғау туралы айтып отырмыз. ChatGPT және басқа жа ЖИ эстон тілін білуге тиіс. Бұл – біздің стратегияларымыздағы базалық принциптің бірі. Сонымен қатар біз сенімділік туралы айтамыз. Технологияны қолданған кезде қызметке, мәліметтерге сенеміз. Киберқауіпсіздіктің барлық аспектісі сақталады. Бұған қоса, технологиялық бейтараптылықты сөз етеміз. Яғни, біздің цифрлық үкімет бар, оның сервисіне қатысты барлық талап ЖИ-ге қатысты да қолданылуы керек», - деді ол.
Сондай-ақ елші тұжырымдамадағы тағы бір маңызды принцип табиғат пен климатқа жауапкершілікпен қарау екенін айтты.
«ЖИ немесе үкіметтік қызметтер проактивті болуы керек. Егер бір қызмет керек болып, үкіметке жүгінсе, ол барлық проактивті қызметті қосуы керек. Бұл жерде азаматтардың үкіметпен интеграциясы туралы айтамыз. Халық пен үкіметтің өзара байланысы қарапайым, қолжетімді әрі жеңіл болуы керек. Осы ретте Қазақстанды атап өткім келеді. Өйткені БҰҰ барлық рейтингісінде Қазақстан мемлекеттік қызметті көрсету бойынша жоғары орында тұр. Біздің үкімет бизнесті ЖИ этикасы бойынша кейбір аспектіні оқыту керек екенін түсінеді. ЖИ университеттердегі жаңартылған білім бағдарламасының бір бөлігіне айналуы керек. Сондай-ақ қазір біздің алдымызда эстон тілінің корпусын қалыптастыру міндеті тұр. Мен ChatGPT-мен эстон тілінде сөйлесе аламын. Қазір «ChatGPT-дің қазақ тіліндегі сапасы жақсы емес» деген пікірлер айтылып жатыр. Неге? Өйткені ол жүйе интернетте бар қазақ тіліндегі материалдар негізінде жаттығады», - деді елші.
«Цифрлық кодекстің қазіргі жобасы атына сай емес»
Былтыр Қазақстан президенті өз Жолдауында цифрландырудың жетекші қағидаттарын айқындайтын кешенді салалық құжат дайындауды тапсырған болатын. Қазір үкімет Цифрлық кодекстің жобасын әзірлеп, тиісті органдармен пысықтап жатыр. Maksut Narikbayev University оқытушысы Дана Өтегеннің пікірінше, цифрлық кодекстің қазіргі жобасы өз атына сай емес.
«Себебі кейбір ұсыныс-бастамалар бар, оны заңгерлердің практикасында қолдануға болады. Бірақ әзірге ЖИ қолданудағы жауапкершілік, оны қолдану ережесі, мәліметтер базасын реттеу, мәліметтерді өңдеуге қатысты нақты нормаларды көре алмайсыз. Оны енгізуге қатысты сын болатынын көріп отырмыз, заңгерлердің пікірі осыған саяды. Қазір ЖИ реттеуге қатысты жиын-отырыстар түрлі салаларға бөлінген: денсаулық, білім, қаржы секторы және т.б. Егер кешенді түрде қарайтын болсақ, әр саланы реттеу бойынша кешенді іс-шаралар бар. Бірақ Цифрлық кодекс барлық саланың қажеттілігіне жауап бере ала ма? Ол үшін шет елдердердің тәжірибесін зерттеу керек. ЕО-да ИЖ қолдану тәжірибесі бар. Мысалы, адамның бет-әлпетін тану функциясы бар камералар орнату (Face ID), сайлау науқаны кезінде алгоритимді пайдалану үшін саяси жарнаманы пайданану сияқты тәжірибе қолданып жатыр. Сондай-ақ сауда-саттықтан соң адамның эмоциясын анықтайтын қосымшалар бар. Бұған қоса, көңіл көтеру қосымшалары бар. Әлеуметтік желілерде түрлі форматтағы қосымшалар бар, алайда оны пайдаланып жатқан адамдар кейін ол мәліметтер кейін түрлі сипатта пайдаланылуы мүмкін екенін ескермейді», - деді ол.
Оның пікірінше, адамдар қосымшаларды пайдалану кезінде оны пайдалану ережесі мен келісімді оқып, мәліметтер қандай мақсатта жиналады және кейін қандай мақсатта пайдаланатынын мұқият оқи бермейді.
«Қазір әзірленіп жатқан Цифрлық кодексте жеке деректерді қорғау туралы бөлім бар. «Бұл бөлімді Цифрлық кодекске қосу керек пе?» деген сұраққа, «жоқ» деп жауап берер едім. Өйткені бізде Жеке деректерді қорғау туралы тұтас заң бар. Егер алдағы уақытта алгоритм жеке деректерді бұзу, заңсыз тарату немесе оны жариялауға қатысты түрлі процеске қатысатын болса, қолданыстағы заңды жетілдіріп пайдалануға болады деп ойлаймын», - деді оқытушы.
«Қазақстан азаматтардың саусақ ізін жинап, оның қорғалуын қамтамасыз ете алмай отыр»
Оның пікірінше, бүгінде халықтың биометриялық мәліметтерін жинауға қатысты мәселе бар.
«Көптеген мемлекеттік органда ЖИ технологиялары қолданылып жатыр, әрі ол тек аты-жөні, мекен-жайы сияқты жеке деректер ғана емес, одан да сезімтал – субъектінің биометриялық және биологиялық мәліметтерінен тұратын деректер бар. Ол - Face ID, көз торы, саусақ іздері. Әрине ол қауіпсіздік үшін, шекарадан өту үшін керек шығар. Мәселен, ЕО виза алу үшін саусақ ізін тапсыру қажет екенін білеміз. Мұндай талап Қазақстанда да пайда болды. Дактилоскопиялық және геномдық тіркеу туралы заңға түзету енгізіліп, Қазақстанның әрбір азаматы 2024 жылға дейін саусақ ізін тапсыруы керек еді. Қазір бұл норма тоқтатылды. Себебі әлі құрал-жабдықтар жоқ, қаржыландыру мәселесі шешілмеген. Яғни, қазір Қазақстан азаматтардың саусақ ізін жинап, оның қорғалуын қамтамасыз ете алмайды. Бұл ЕО тәжірибесінде де бар. Бірақ онда адамның ұлтына, нәсіліне және басқа белгілері бойынша құқығын бұзуға жол бермеуге мән береді. ЕО-да көптеген ұлт пен аз ұлттық топтар тұрады. Белгілі болғандай кейбір мемлекет ЕО азаматтарына жатпайтын босқын немесе мигрант мәртебесін алмаған адамдарға дискриминациялық шаралар қолданғаны белгілі болды», - деді Дана Өтеген.
Айта кетейік, биометриялық тану кезінде бет-әлпетті және көз торын тану алгоритмі қолданылады. Алайда сарапшының пікірінше, биометриялық тану кезінде қателіктерге жол берілуі мүмкін.
Қателікке жол берілген кездер болды. Мәселен, камера дұрыс танымағандықтан, бұрын қылмыстық жауапкершілікке тартылмаған адамның жауапқа тартылған кезі болды. Бұл жағдайдың соңы ол адамды 72 сағаттан аса полиция учаскесінде ұсталуына әкелді. Сондай-ақ осындай камералардың көмегімен демонстранттарды ұстаған жағдайлар кездесті. ЕО регламенті құқық қорғау органдарына бет-әлпетті тану камерасының функциясын қылмыстық істі тергеу кезіндегі бірыңғай дәлел ретінде пайдаланбауды ұсынады. Біз алгоритмдердің қателесуі мүмкін екенін түсінуіміз керек. Камера ұсынған мәліметтің анықтығы мен сенімділігі өзгеруі мүмкін. Қазір Қазақстандағы ЖИ тұжырымдамасына қатысты бірқатар ұсыныс бар. Ол – шектеуге, кемсітушілікке жол бермеу және т.б. Алайда оны «жоқ» деп айта алмаймыз. Негізгі тәуекел мен қауіп-қатер де осы. Себебі технологиялар дамып жатыр, оны мемлекеттік органдар ғана емес, жекеменшік компаниялар да пайдалана алады. Жеке бизнеске тиесілілерді реттеу кейде қиынға соғады, - деді ол.
Ол биометриялық аутенфикация бойынша өңірлік зерттеу жүргізу кезінде Қазақстан, Тәжікстан, Қызғызстан мен Өзбекстанның тәжірибесі сараланғанын атап өтті. Сарапшы бұл төрт ел биометриялық аутенфикацияны бір мезгілде реттей бастаған.
«Ең алдымен шекарадан өту кезінде тексеріс үшін енгізілді. Содан соң мемлекеттік қызметке қатысты пайдаланыла бастады. Бұл елдер қандай мәселеге тап болды? Мәселен, Қырғызстан сайлау процесі кезінде пайдаланды. «Саусақ ізін тапсырмағандар сайлау учаскесіне келіп дауыс бере алмайды» деп енгізді. Оны енгізудегі мақсат – әділ сайлау өткізу болатын. Өкінішке қарай, кейін көптеген сұхбат, аналитикалық есептер мен зерттеулерден кейін Қырғызстан биометрикалық аутенфикацияның көмегімен сайлауды әділ өткізе алмағаны белгілі болды. Өйткені бұл – бар болғаны құрал. Біріншіден, ол – жаппай дактилоскопия. Екіншіден, саусақ ізін тапсырмасаң дауыс бермейсің. Үшіншіден, жиналған мәліметтерді сақтау. Кейін ол мәліметтердің таралуы, дұрыс сақталмауы сияқты мәселе болды. Сонымен қатар, Тәжікстанда жалған биометриялық паспорттарды жасау фактісі болды. Мемлекеттік органдардың қызметкерлері жалған паспорт сатқан. Тіпті, шекараны өту кезінде террористік ұйымның мүшелері басқа біреудің биометриялық мәліметтерімен жүргені анықталды. Яғни, адами фактор мен қаржы пайда болған кезде технология абсолютті сенімді бола алмайды. Сондықтан тәуекелдерді бағалау кезінде мемлекет бәрін жан-жақты саралауы керек», - деді Дана Өтеген.