Про це повідомляє AIN.UA.
Цей сервіс працює на основі машинного навчання, він призначений для аналізу тексту коментарів: чи містяться в них образи, тролінг тощо.
Сервіс вже тестувала адміністрація Wikipedia, редакції Guardian, The Economist і The New York Times. На Wikipedia його використовують досі, щоб знаходити редакторів-волонтерів, які погано поводяться.
Демо-версію сервісу може випробувати в онлайні будь-який користувач. Достатньо просто ввести в поле текст коментаря – кілька слів або речення, і Perspective заміряє рівень його токсичності.
Якщо цей рівень становитиме 80% і більше, є немаленький шанс, що ваш коментар, з'явившись в онлайні, образить інших користувачів.
Читайте також: Топ-5 сервісів від Google, про які ви не знали
Сервіс досі перебуває в розробці, тому не здатний дуже точно знаходити тролів. Тож адміністрація просить користувачів залишати свої відгуки, щоб сервіс міг вчитися на своїх помилках.