«OpenAI» алдағы уақытта шығатын тілдік модельдер биологиялық қару жасауға қабілетті болуы мүмкін деп алаңдаушылық білдіріп отыр. Компанияның қауіпсіздік бөлімінің жетекшісі Йоханнес Хайдеке мәлімдегендей, мұндай модельдер ғылымнан хабары жоқ адамдардың өзіне қауіпті патогендер жасауға мүмкіндік беруі мүмкін.
Сондықтан «OpenAI» қауіпсіздік жүйесін күшейтіп, қауіпті сұраныстарды автоматты түрде анықтап, бұғаттайтын қатаң сүзгілер енгізуді қолға алған. Компания бұл мәселені үкіметтер мен ғылыми қауымдастықпен бірлесіп шешуді жоспарлап отыр. Себебі жасанды интеллект тек пайдалы құрал ғана емес, дұрыс бақылауға алмаса, үлкен қауіп көзіне айналуы мүмкін.