«ChatGPT» ісімізге араласып қана қоймай, ойлауымыз бен сөйлеуімізге де әсер ете бастады. Алғашқыда оны ақпарат іздеу, аударма жасауға ғана қолдансақ, қазір бұл құрал тілдік жүйеге, білім саласына, сенімге ықпал етіп жатыр.
Сөйлеу мәдениеті өзгереді
Берлиндегі Макс Планк атындағы Адам дамуы институтының зерттеушісі Хирому Якура «ChatGPT»-ді қолдана бастаған соң, өзінің сөйлеу мәнерінде өзгешеліктер пайда болғанын байқайды. Ол бұрын сирек қолданатын «delve» деген ағылшын сөзін жиі айтатынды шығарған. Бұл сөздің қазақша мағынасы «терең үңілу» немесе «мәселенің мәнін терең зерттеу» дегенге саяды. Якура осыны байқаған сәтте ойында «Бұл менде ғана ма, әлде басқа адамдарда да осындай өзгеріс бар ма?» деген сұрақ туындайды. Сөйтіп, ол «ChatGPT»-дің адамның сөйлеу тілін өзгертіп жатқаны туралы ауқымды зерттеу жүргізуге бел буады.
Зерттеу екі негізгі кезеңнен тұрады. Бірінші кезеңде ғалымдар «ChatGPT»-ге түрлі мәтіндерді, хаттар, эсселер, ғылыми мақалалар мен жаңалықтарды, «түсінікті етіп жақсарт» деген тапсырмамен қайта өңдетеді. Соның нәтижесінде «GPT» жиі қосатын және сөздердің мәнін өзгертіп не байытып отыратын лексикалық бірліктер анықталады. Бұл сөздердің қатарында «delve» (терең үңілу), «realm» (сала, кеңістік), «meticulous» (ұқыпты, мұқият), «swift» (жылдам), «boast»(мақтану), «inquiry» (зерттеу, сұрау салу) сынды ресми мәнердегі сөздер жиі кездескен. Ғалымдар сөздерді шартты түрде «GPT сөздері» деп атаған. Келесі кезеңде осы «GPT» сөздерінің қолданылу жиілігі «YouTube» пен подкаст платформаларындағы 700 мың сағаттан астам аудио-видео контент негізінде сарапқа салынады. Талданған материалдар 2018 жылдан 2024 жылға дейінгі аралықты қамтыған. Яғни зерттеушілер «ChatGPT» шыққанға дейінгі (2022 жылдың соңына дейінгі) және шыққаннан кейінгі кезеңді салыстырған. Нақтырақ айтсақ, олар бұл сөздердің қаншалықты жиі қолданылып жүргенін бизнес, білім, дін, руханият, ғылым мен технология, спорт салалары бойынша талдаған. Зерттеу нәтижесінде, «ChatGPT» шыққаннан кейін бұл сөздер адамдардың ауызекі тілінде, әсіресе подкастарда жиі қолданыла бастаған. Мысалы, «delve» сөзіне балама ретінде «explore» немесе «examine» сөзін қолдануға болады. Алайда дәл осы «ChatGPT» жиі қолданатын «delve» сөзі адамдардың санасына орнығып, 2023 жылдан бері ауызекі тілде де жиі айтылатын болып кеткен.
Макс Планк институтының зерттеушісі Левин Бринкманн осы құбылыстың астарында үлкен әлеуметтік-мәдени мән жатқанын айтады. «Адам табиғатынан еліктегіш. Бірақ біз бәріне емес, беделді, ақылды деп санайтын адамдарға көбірек еліктейміз. Қазір адамдар жасанды интеллектіні мәдени референтке айналдырып, содан үлгі алып жатыр», дейді ол. Бұл жерде мәселе сөздік қор туралы ғана емес. Ғалымдар атап өткендей, жиі қолданылатын сөздер адамның ойлау тәсіліне, дүниені қабылдауына, пікір айтуына әсер етеді. Яғни «GPT сөздерінің» көбеюі тілдік өзгеріс қана емес, мәдени өзгеріс. Бұл пікірді Чикаго университетінің профессоры, әлеуметтанушы және деректер ғылымының маманы Джеймс Эванс та қуаттап отыр. «Қазір «LLM» қоғамға қалай әсер етіп жатқанын түсіну үшін сөз жиілігін зерттеу – ең дұрыс әдіс. Бірақ болашақта сөйлем құрылымын, ой жеткізу тәсілін де талдайтын боламыз. Себебі ЖИ сөз ғана емес, тұтас тілдік ойлау жүйемізді өзгертуі мүмкін. Егер бәріміз бір тіл үлгісімен сөйлей бастасақ, тілдегі стильдік әртүрлілік азаяды. Тіпті ойымыз да сол бағытқа бұрылады. Тіліміз – қатынас құралы ғана емес, ұлттық болмысымыздың, дүниетанымымыздың, мәдени кодымыздың көрінісі», дейді ғалым.
Осылайша, ChatGPT адамның сөйлеу мәдениетіне ықпал етіп жатыр. Айналып келгенде, біз «ChatGPT»-ді емес, «ChatGPT» бізді үйретуге көшті.
«ChatGPT» зертханасы
«OpenAI» компаниясы пайдаланушыларының осылай нейрожелінің ығында кетпес үшін, өз ой-пікірін жоғалтып алмас үшін жаңа функция жасап жатыр. Олар «ChatGPT»-дің оқыту жүйесін жетілдіруге ден қойған. Бұл мүмкіндік студенттерге дайын жауап берудің орнына, ойлануға, сұрақтың мәнін түсінуге, дұрыс шешім табуға көмектесуді мақсат етеді. Енді ЖИ бірден жауапты айтпайды, керісінше, пайдаланушыны бірнеше кезеңмен ойлау, нақтылау сұрақтарын қою және шешімді өз сөзімен түсіндіруге бағыттайды.
Мысалы, студент емтиханға дайындалып отыр делік. Бұрын ол «ChatGPT»-ге сұрақ қойса, тікелей жауап алып отырған. Енді жаңа режімде ЖИ: «Бұл сұрақта не айтылып тұр деп ойлайсың?» «Қандай нұсқалар бар, сен неге біреуін таңдадың?», «Сенің шешіміңнің себебі қандай?» деген сияқты сұрақтар қойып, ойлау қабілетін дамытуға көмектеседі.
«OpenAI» бұл мүмкіндікті мұғалімдермен, ғалымдармен, студенттермен бірлесіп жасаған. Жоба «ChatGPT зертханасы» деген бастама аясында жүзеге асқан. Онда студенттер ЖИ-ді қалай қолданатынын айтып, пікір бөлісіп отырған.
«OpenAI»-дың білім жөніндегі вице-президенті Лия Бельски: «Егер ChatGPT-ді репетитор сияқты қолданса, ол студенттің білімін шынымен жақсартады. Ал дайын жауап үшін пайдаланса, оқуға кедергі келтіреді», дейді.
Компания бұл режімді студенттерді көшіруге емес, үйренуге бағыттау үшін жасап отыр. Себебі қазірдің өзінде әрбір үшінші студент ChatGPT қолданады. Жаңа функция тегін қолданушыларға да, Plus/Pro/Team нұсқаларын пайдаланушыларға да қолжетімді. Жақын күндері «ChatGPT Edu» жүйесіне енгізіледі.
ЖИ-ге сырыңызды айтпаңыз!
Сондай-ақ бүгінгі таңда көп адам «ChatGPT» сияқты жасанды интеллект жүйелерін ақпарат, білім алу мақсатында ғана емес, кеңес сұрауға, ішкі сырын ақтаруға немесе қиындықтарын айтып, бөлісуге қолданады. Бірақ мұндай әңгімелер құпия бола ма? «OpenAI» бас директоры Сэм Альтманның өзі маңызды ескерту жасады.
Оның айтуынша, адамдар ЖИ-мен сөйлескенде кәдімгі психологпен немесе заңгермен сөйлескендей сенім артады. Алайда мұндай сенімнің құқықтық негізі жоқ. Психотерапевт, адвокат немесе дін қызметкерімен сөйлескенде әңгімеңіз кәсіби құпия ретінде заңмен қорғалады. Ал ChatGPT-мен болған диалог мұндай қорғауға жатпайды. Сондықтан сіз чатқа жазған мәліметтеріңіз қажет болған жағдайда сот барысында айғақ ретінде қолданылуы мүмкін.
«OpenAI» кейбір чаттарды қызмет сапасын жақсарту үшін уақытша сақтауы ықтимал екенін жасырмайды. Бұл жазғаныңыз 100% қауіпсіз дегенді білдірмейді. Егер күмән тудыратын ақпараттар жіберіп, ақыл сұрасаңыз, олар болашақта сізге қарсы қолданылуы мүмкін. Яғни цифрлық ортада айтылған сөз – жай әңгіме емес, нақты дәлел.
Сэм Альтман бұл мәселені ерте ескертіп отырғанын жеткізді. «Жасанды интеллектімен диалог те кәдімгі мамандармен сөйлескендей заңмен қорғалуы керек. Бірақ қазіргі заңнамада мұндай нормалар қарастырылмаған», деді ол.
Жасанды интеллект күн сайын дамып жатса да, оны қолдану ережелері әлі нақты бекітілмеген. Сондықтан пайдаланушы ретінде біз де өз қауіпсіздігіміз үшін жауаптымыз. «ChatGPT» – ыңғайлы құрал, бірақ дәрігер де, заңгер де, дос та емес. Оған сырың мен маңызды мәліметіңді сеніп тапсыру сақтықты талап етеді.