Об этом сообщает AIN.UA.
Этот сервис работает на основе машинного обучения, он предназначен для анализа текста комментариев: содержатся ли в них оскорбления, троллинг и тому подобное.
Сервис уже тестировала администрация Wikipedia, редакции Guardian, The Economist и The New York Times. На Wikipedia его используют до сих пор, чтобы находить редакторов-волонтеров, которые плохо себя ведут.
Демо-версию сервиса может испытать в онлайне любой пользователь. Достаточно просто ввести в поле текст комментария – несколько слов или предложение, и Perspective замеряет уровень его токсичности.
Если этот уровень составит 80% и более, есть немаленький шанс, что ваш комментарий появившись в онлайне, оскорбит других пользователей.
Читайте также: Топ-5 сервисов от Google, о которых вы не знали
Сервис до сих пор находится в разработке, поэтому не способен очень точно находить троллей. Поэтому администрация просит пользователей оставлять свои отзывы, чтобы сервис мог учиться на своих ошибках.