«OpenAI» мен «Apollo Research» ғалымдары жасанды интеллект модельдерінің неге жалған ақпарат беретінін зерттеп, жүйені арнайы оқыту әдістерімен үйреткеннің өзінде, олар жаңа тәсілдермен өтірік ақпарат беруге бейім екенін анықтады.
Зерттеушілер ЖИ-дің шынайы мақсаттарын жасыруын биржалық брокердің заңды бұзуына ұқсас әрекет дейді. Бұл жерде брокер пайда табу үшін заңды бұзып, өзінің әрекетін жасырады, ал ЖИ модельдері тапсырмаларды орындағанын айтып, бірақ іс жүзінде оларды орындамайды. Бұл қарапайым алаяқтық түрі секілді іс-әрекет. Зерттеушілер бұның алдын алу үшін ЖИ жүйесіне алаяқтыққа қарсы ережелерді үйретіп, тапсырма орындалғаннан кейін оны тексеру жолдарын қарастырмақ.