Приклад: модерація вмісту
Понад 30 тисяч веб-документів вилучено та анотовано для модерування вмісту
які прагнуть захистити онлайн-простір, де ми з’єднуємося та спілкуємося.
Оскільки використання соціальних мереж продовжує зростати,
Проблема кіберзалякування стала актуальною як a
суттєвою перешкодою для платформ, які прагнуть
забезпечити безпечний онлайн-простір. Приголомшливий
З цим стикаються 38% людей
шкідлива поведінка на щоденній основі,
наголошуючи на гострому попиті на винахідливість
підходи до модерації контенту.
Сьогодні організації покладаються на використання
штучний інтелект для вирішення довготривалих
проблему кібербулінгу активно.
Кібербезпека:
Опубліковано Звіт Facebook про дотримання стандартів спільноти за четвертий квартал – дії щодо 4 мільйона матеріалів із залякуванням і переслідуваннями з коефіцієнтом проактивного виявлення 6.3%
Освіта:
A 2021 дослідження показало, що 36.5%% студентів у Сполучених Штатах у віці від 12 і 17 років зазнавали кіберзалякування в той чи інший момент під час навчання в школі.
Відповідно до звіту за 2020 рік, у 4.07 році світовий ринок рішень для модерації контенту оцінювався в 2019 мільярда доларів США, а до 11.94 року він мав досягти 2027 мільярда доларів США із середньорічним темпом зростання 14.7%.
Рішення реального світу
Дані, які модерують глобальні розмови
Клієнт розробляв надійну автоматизовану систему
модерація контенту Машинне навчання
модель для своєї хмарної пропозиції, для якої вони
шукали постачальника для домену, який
може допомогти їм із точними навчальними даними.
Використовуючи наші глибокі знання з обробки природної мови (NLP), ми допомогли клієнту зібрати, класифікувати та анотувати понад 30,000 XNUMX документів англійською та іспанською мовами, щоб побудувати автоматизовану модель машинного навчання модерації вмісту, розділену на токсичний, дорослий або сексуально відвертий вміст. категорії.
Проблема
- Веб-скопіювання 30,000 XNUMX документів іспанською та англійською мовами з пріоритетних доменів
- Класифікація зібраного вмісту на короткі, середні та довгі сегменти
- Позначення зібраних даних як токсичний, для дорослих або відверто сексуальний вміст
- Забезпечення високоякісних анотацій із мінімальною точністю 90%.
Рішення
- Веб-брак 30,000 XNUMX документів кожен для іспанської та англійської від BFSI, Healthcare, Manufacturing, Retail. Вміст було поділено на короткі, середні та довгі документи
- Успішне позначення класифікувало вміст як токсичний, для дорослих або відверто сексуальний
- Щоб досягти 90% якості, Shaip запровадив дворівневий процес контролю якості:
» Рівень 1: перевірка якості: 100% файлів підлягають перевірці.
» Рівень 2: Перевірка критичного аналізу якості: команда CQA Shaips оцінює 15%-20% ретроспективних зразків.
Результат
Навчальні дані допомогли побудувати модель ML автоматизованої модерації вмісту, яка може дати кілька корисних результатів для підтримки безпечнішого онлайн-середовища. Деякі з ключових результатів включають:
- Ефективність обробки великої кількості даних
- Послідовність у забезпеченні однакового застосування політики модерації
- Можливість масштабування для адаптації до зростаючої бази користувачів і обсягів вмісту
- Модерація в реальному часі може ідентифікувати та
видаляти потенційно шкідливий вміст у міру його створення - Економічна ефективність завдяки зменшенню залежності від людей-модераторів
Приклади модерації вмісту
Розкажіть нам, як ми можемо допомогти з вашою наступною ініціативою щодо штучного інтелекту.