مطالعه موردی: تعدیل محتوا
30K+ سند وب حذف شده و حاشیه نویسی شده برای نظارت محتوا
که تلاش می کنند فضای آنلاینی را که در آن ارتباط و ارتباط برقرار می کنیم، ایمن کنند.
همانطور که استفاده از رسانه های اجتماعی همچنان در حال رشد است،
مشکل آزار و اذیت سایبری به عنوان یک ظاهر شده است
مانع قابل توجهی برای پلتفرم هایی که تلاش می کنند
اطمینان از یک فضای آنلاین امن تکان دهنده
38 درصد افراد با این مشکل روبرو می شوند
رفتار مضر روزانه،
با تاکید بر تقاضای فوری برای اختراع
رویکردهای تعدیل محتوا
امروزه سازمان ها به استفاده از
هوش مصنوعی برای مقابله با ماندگاری
مشکل آزار سایبری فعالانه
امنیت سایبری:
گزارش اجرای استانداردهای اجتماعی سهماهه چهارم فیسبوک فاش شد – اقدامی بر روی 4 میلیون قطعه محتوای قلدری و آزاردهنده، با نرخ شناسایی فعال 6.3 درصد
آموزش و پرورش:
A 2021 مطالعه نشان داد که ٪۱۰۰٪ از دانش آموزان در ایالات متحده بین سنین 12 و 17 سالها در طول تحصیل خود در یک مقطع زمانی مورد آزار و اذیت سایبری قرار گرفتند.
بر اساس گزارشی در سال 2020، ارزش بازار جهانی راه حل های تعدیل محتوا در سال 4.07 به 2019 میلیارد دلار رسید و انتظار می رفت تا سال 11.94 به 2027 میلیارد دلار با CAGR 14.7 درصد برسد.
راه حل دنیای واقعی
داده هایی که مکالمات جهانی را تعدیل می کند
مشتری در حال توسعه یک خودکار قوی بود
تعدیل محتوا یادگیری ماشینی
مدلی برای ارائه Cloud آن، که برای آن
به دنبال فروشنده مخصوص دامنه بودند که
می تواند با داده های آموزشی دقیق به آنها کمک کند.
ما با استفاده از دانش گسترده خود در زمینه پردازش زبان طبیعی (NLP)، به مشتری در جمع آوری، طبقه بندی و حاشیه نویسی بیش از 30,000 سند به زبان انگلیسی و اسپانیایی برای ایجاد تعدیل محتوای خودکار مدل یادگیری ماشینی که به محتوای سمی، بالغ یا غیراخلاقی جنسی تقسیم می شود، کمک کردیم. دسته بندی ها
مشکل
- حذف 30,000 سند به زبان اسپانیایی و انگلیسی از دامنه های اولویت بندی شده توسط وب
- دسته بندی مطالب جمع آوری شده به بخش های کوتاه، متوسط و طولانی
- برچسب گذاری داده های گردآوری شده به عنوان محتوای سمی، بالغ یا صریح جنسی
- اطمینان از حاشیه نویسی با کیفیت بالا با حداقل دقت 90٪.
راه حل
- وب هر کدام 30,000 سند را برای اسپانیایی و انگلیسی از BFSI، بهداشت و درمان، تولید، خرده فروشی حذف کرد. محتوا بیشتر به اسناد کوتاه، متوسط و طولانی تقسیم شد
- با موفقیت محتوا را بهعنوان محتوای سمی، مخصوص بزرگسالان یا صریح جنسی طبقهبندی کرد
- برای دستیابی به کیفیت 90٪، Shaip یک فرآیند کنترل کیفیت دو لایه را اجرا کرد:
» سطح 1: بررسی تضمین کیفیت: 100% فایل ها اعتبار سنجی می شوند.
» سطح 2: بررسی تجزیه و تحلیل کیفیت بحرانی: تیم CQA Shaips برای ارزیابی 15٪ -20٪ از نمونه های گذشته نگر.
نتیجه
دادههای آموزشی به ساخت مدل ML تعدیل محتوای خودکار کمک کرد که میتواند چندین نتیجه مفید برای حفظ یک محیط آنلاین امنتر به همراه داشته باشد. برخی از نتایج کلیدی عبارتند از:
- کارایی برای پردازش حجم وسیعی از داده ها
- ثبات در حصول اطمینان از اجرای یکسان سیاست های اعتدال
- مقیاس پذیری برای انطباق با پایگاه کاربر رو به رشد و حجم محتوا
- تعدیل در زمان واقعی می تواند شناسایی و
محتوای بالقوه مضر را هنگام تولید حذف کنید - مقرون به صرفه بودن با کاهش اتکا به تعدیل کنندگان انسانی
نمونه هایی از تعدیل محتوا
به ما بگویید چگونه می توانیم در ابتکار بعدی هوش مصنوعی شما کمک کنیم.