Қазақстанда ЖИ-ді дұрыс емес пайдаланған үшін жаза енгізіледі: бұл кімдерге маңызды?

Қазақстан жасанды интеллектіні реттеу бағытында маңызды қадамдар жасап келеді. Қасым-Жомарт Тоқаев «Жасанды интеллект туралы» заңға қол қойды, енді жауапкершілік жүйесі де пайда болады. 2026 жылғы 18 қаңтардан бастап жаңа ӘҚБтК бабы күшіне енеді: ірі компаниялар үшін айыппұл көлемі 200 АЕК-ке дейін жетеді.

17 қарашада мемлекет ЖИ-дің не екенін және оны пайдалану қағидаларын нақтылады: енді мұндай технологияларды иеленетін, әзірлейтін немесе қолданатындар өз өнімдерінің салдары үшін жауап береді. Ал 2026 жылғы 18 қаңтардан бастап жауапкершілік енгізіледі — ӘҚБтК-нің 641-1-бабы «Жасанды интеллект саласындағы Қазақстан Республикасы заңнамасын бұзу».

Енді мынадай әрекеттер үшін айыппұл салынады

ЖИ жасаған нәтиженің — фото, видео, дауыс немесе пайдаланушыны шатастыруы мүмкін кез келген контенттің — жасанды екенін көрсететін маркировка мен ескертудің болмауы.

Зиян келтіруі мүмкін тәуекелдерді басқарудың болмауы:

 • денсаулыққа немесе әл-ауқатқа әсер ету;

 • тыйым салынған немесе жалған ақпарат тарату;

 • дискриминация;

 • адам құқықтарының бұзылуы;

 • кез келген өзге де зиян.

Яғни, егер ЖИ қауіпті әрекет жасаса, ал иесі оны болдырмау үшін ештеңе істемесе — жауапкершілік сол иесіне жүктеледі. Мысалы, нейрожелі біреу туралы фейк жасап шығарса, ал әзірлеуші оны бақылап, шектеу қоймаған болса, ол жауап береді.

Қандай айыппұлдар белгіленген

Жеке тұлғалар үшін:

• бірінші рет — 15 АЕК (2026 жылы 64 875 теңге);

• қайталанса — 30 АЕК (129 750 теңге).

Шағын бизнес пен коммерциялық емес ұйымдар үшін:

• 20 АЕК (86 500 тг);

• қайталанса — 50 АЕК (216 250 тг).

Орта бизнес үшін:

• 30 АЕК (129 750 тг);

• қайталанса — 70 АЕК (302 750 тг).

Ірі компаниялар үшін:

• 100 АЕК (432 500 тг);

• ең жоғары жаза — 200 АЕК (865 000 тг).

Бұл заң контент және медиа саласында жұмыс істейтіндерге тікелей қатысты. Блогерлер, дизайнерлер, SMM-мамандар — ЖИ көмегімен материал жасайтындардың барлығы енді ашықтық пен соңғы өнімнің сапасына жауап береді. Егер нейрожелі саясаткердің жалған суретін жасаса немесе біреудің дауысын қолдан жасап шығарса, сол контентті жариялаған адам жауапқа тартылады. Бұл клиенттермен жұмыс, деректерді талдау секілді бизнес-процестерде ЖИ қолданатын кәсіпкерлерге де қатысты. ЖИ қателікті автоматты түрде жіберсе де, заң бойынша жүйе иесі жауапкершіліктен босатылмайды.

Мұның бәрі қазіргі цифрлық орта айқын ережелерді талап ететіндіктен жасалып отыр. Технологиялар тым шынайы бола бастады, ал тәуекелдер тым жоғары. Жалған дауыстар алаяқтықта пайдаланылуы мүмкін, фейк-видеолар саяси қысымға әкелуі ықтимал, ал ашық емес алгоритмдер адамдарды кемсітуге әкеледі. Заң мен айыппұлдар қорғаныс инфрақұрылымын қалыптастырады: адам қай кезде ЖИ-мен әрекеттесіп отырғанын түсінуі және оның құқықтары бұзылмайтынына сенімді болуы керек.

Ең жақсы «Youth.kz» материалдардың ақпараттық бюллетеніне жазылыңыз