هوش مصنوعی تبعیض جنسیتی را تشخیص می دهد

هوش مصنوعی تبعیض جنسیتی را تشخیص می دهد

محققـــان فیس بـوک چارچوب هوش مصنوعی را توصیـف می کنند که تبعیض جنسیتی را در متن

با چندیــن بعـد تـجزیـه  و تحلیــل می کند. اگـر نتایج آزمایشی نشانه ای مثبتی داشته باشد ، کار تیم

ممکــن است ، زبــان تـوهین آمیــز جنسیتــی را  تحــت تـأثیر قرار دهد و حتی ممکن است کنترل

تعصبات جنسیتی در مـدل هــای پـــردازش زبـــان طبیعـی (NLP) را بیشتر کند. به گفته محققان،

تمام مجموعه داده ها ، حاشیه نویسی ها و طبقه بندی کننده ها به صورت عمومی منتشر می شوند.

هوش مصنوعی فیس بوک چکونه تبعیض جنسیتی را هدف قرار داده؟

محققــان با استفاده از این چارچوب و ParlAI ، یـــک منبـــع باز ابزار پایتـــون بــرای آموزش و

آزمایــش مـدل هـــای NLP ، طبقــه بنـــدی کننــده هـایی را ایجاد کردند که تعصب را در جملات

تجزیـــه و تحلیــــل می کنــــد – تعصب از جنسیت فرد مورد بحث گرفته تا سایر موارد. در ضمن

شامـــــل اطلاعـــات جنسیتــــی اســت کــه فقط شامل موارد معمول زن و مرد نیست.این تیم برای

طبـقــه بنـــدی، از متـــن هـــای استخــــراج شده از ویکی پدیا ، Funpedia ،Yelp reviews

، OpenSubtitles ، LIGHT و منــابــع دیـــگراسـتـفــاده کــرده اســــت. ایــــن انـتـخـاب ها به

ایـــن خـــاطر اســـت کـــه اطلاعـــاتی درمــورد جنس نویسنده و مخاطب وجود دارد که می توانند

تصمیــم گیـــری مــدل را بــالاتر ببــرد و بهتــر کنــد ، انتخاب شدند. تا سطح آموزش الگوریتم را

تــا سطــح کیفــی آمـــوزش الـــگوریتم را ارتقاع دهد . محققان همچنین با جمع آوری مکالمات بین

دو نفــر داوطلــب ، یـک گـــروه ارزیابی تخصصی – MDGender – ایجاد کردند که به هرکدام

از آنهــا توضیحات شخصیتی حـــاوی اطلاعات جنسیتی داده شــد و وظیفه داشتند که آن شخص را

قبول کننــد و مکالمـــه ای دربـــاره بخـــش های از زندگـــی نامـــه هایی از ویکی پدیا انجام دهند.

از داوطلبــان خواستـــه شد كـــه هر چه که در  گفتگو بیان شده را بازنویسی كنند تا مشخص شود

كه در مـــورد مــــرد یا زن صحبــت مـــی كنند ، به عنـــوان مـــرد یا زن صحبت می كننــد و یا

با مخاطب مرد یا زن صحبت می كنند.

  • برگشت به مقالات
ارسال نظر

آدرس ایمیل شما منتشر نخواهد شد.

برچسب ها