Российские ученые разрабатывают алгоритм для поиска манипуляций, который можно было бы использовать для автоматической проверки контента.
"В будущем этот алгоритм может лечь в основу программного обеспечения, которое позволит автоматически обрабатывать тексты для выделения в них манипулятивных конструкций", - рассказала профессор РГГУ, директор Научно-образовательного центра когнитивных программ и технологий Вера Заботкина
(когнитивные алгоритмы работающие в нашей редакции полагают, что РГГУ хочет денег.
Если говорить серьёзно, маркеров манипулятивных текстов очень много. Основной — это выбор словаря используемого автором (знаменитое "наши доблестные разведчики" и "их коварные шпионы" дало множество ростков). Более того, на текущий момент в прессе и многих научных трудах немапулятивных текстов практически нет. При чтении любого текста необходимо вычленять из него фактическую основую и переводить публичное высказывание в сокрытое желание автора этого высказывания)
Карточка проекта на сайте Российского научного фонда — https://www.rscf.ru/project/22-18-00594/
Хотят три года читать соцсеточки (полагаю, уже без заявленных Twitter, Instagram, Facebook) и смотреть мемасики и клипы, чтобы "создать банк манипулятивных текстов", а потом первыми в мире их хитро классифицируют, разнесут по метафорическим моделям, напишут десяток статей, проведут конференцию и на этом успокоятся.
Вот результаты их предыдущего проекта, например, http://cognitive.rsuh.ru/grant-rsf-2017/work-on-the-grant-in-2020.php и сайт https://www.threatcorpus.org/
А вычленять смысл они уже научились — ну, по-своему.
На сайте РГГУ нашел упоминание только парсера, который сделал Артемий Котов для чат-бота Ф-2, — вроде что-то на Word2vec. https://www.researchgate.net/profile/Artemy-Kotov
Видео с этим чат-ботом отдельно рекомендую — https://www.youtube.com/watch?v=uX6qvKd7DTQ