Хабы: Искусственный интеллект, Законодательство в IT
Поскольку опять появились заявления политиков о том, что российские нейросети отказываются отвечать на некоторые вопросы, хочу написать текст, который можно присылать любым не-айтишникам для объяснения этого поведения.
Дело в том, что нейросети нельзя на 100% контролировать. В том смысле, что нельзя их натренировать таким образом, чтобы они никогда и не при каких обстоятельствах не делали определенных высказываний. А практически в любой стране есть высказывания, которые являются либо преступлением, либо как минимум неприличными.
То есть, грубо говоря, нейросеть можно попросить написать хвалебную оду Адольфу Гитлеру - и она ее напишет. Что будет преступлением и в России, и в Германии. Поэтому самый простой способ не дать ей это сделать - просто поставить правило, что если в запросе встречается слово "Гитлер", то не отвечать ничего.
Да, можно попробовать натренировать нейросеть так, чтобы она на такие вопросы отвечала отказом без специального правила. Но практика показывает, что всегда подобрать такой запрос к нейросети, чтобы она ответила не так, как ожидали ее создатели.
Это, кстати, не только российская проблема. В США, например, графическую нейросеть от Гугла настолько успешно обучили американской политкорректности, что она начала рисовать исключительно негров. И эту проблему не могут решить до сих пор.
Да, можно сказать, что все-таки можно достаточно сильно обучить нейросеть, чтобы она отвечала правильно в 99,999999999999999% случаев. Или сделать более гибкие правила, чтобы она не отвечала отказом, а давала более адекватный ответ.
Читать далее