Notice: Function _load_textdomain_just_in_time was called incorrectly. Translation loading for the unlimited-elements-for-elementor domain was triggered too early. This is usually an indicator for some code in the plugin or theme running too early. Translations should be loaded at the init action or later. Please see Debugging in WordPress for more information. (This message was added in version 6.7.0.) in /home/viraskco/public_html/wp-includes/functions.php on line 6121

Notice: Function _load_textdomain_just_in_time was called incorrectly. بارگذاری ترجمه برای دامنه aren زودتر از حد مجاز فراخوانی شد. این معمولاً نشان‌دهندهٔ اجرای کدی در افزونه یا پوسته است که خیلی زود اجرا شده است. ترجمه‌ها باید در عملیات init یا بعد از آن بارگذاری شوند. Please see Debugging in WordPress for more information. (این پیام در نگارش 6.7.0 افزوده شده است.) in /home/viraskco/public_html/wp-includes/functions.php on line 6121
هوش مصنوعی و نژاد پرستی - شرکت هوش مصنوعی ویرا سگال کارو

هوش مصنوعی و نژاد پرستی

هوش مصنوعی و نژاد پرستی

 آیا هوش مصنوعی در مقابل نژاد پرستی و مسائل اینچنینی ایمن است؟ هوش مصنوعی اغلب

با ربات ها درگیر هستند. اگرچه هوش مصنوعی ممکن است یکی از شگفت انگیزترین انقلاب

فناوری های در عصر ما باشد ، و می تواند تقریباً همه جنبه های وجود بشر را مختل کند ، اما

به این معنی نیست که روبات ها در دنیای دیجیتال ما بسیار نقش مهمی ندارند . امروزه کارایی

ربات ها از مبارزه با covid-19 گرفته تا تا جابجای غذا و حتی کمک کردن به بخش های

تولیدی به انسان ها یاری می رسانند.

آیا در هوش مصنوعی نژاد پرستی وجود دارد و چرا؟

در ماه می امسال مایکروسافت یک تدوین گر هوش مصنوعی برای MSN.com معرفی

کرد که جای هفتاد و هفت تدوین گر انسانی را گرفت. , و به بسیاری از نکات مثل محتوا،

دسته بندی و غیره دقت دارد و حتی عکس های پیشنهادی را به سردبیر معرفی می کند.

 اما این هوش مصنوعی، نژاد  یک خواننده آمریکایی را اشتباه تشخیص داد و دو نفر از

همان گروه را که هر دو رنگین پوست بودند را با یکدیگر اشتباه گرفت. این نرم افزار

تصویری از لی-آن پینوک را به مقاله ای با عنوان “جید تورلو وال ، ستاره لیتل میکس

می گوید که او در مدرسه با نژادپرستی وحشتناک روبرو شده است”. پیوست کرده بود

بدون شک این واقعه چگونگی ادامه نژادپرستی در الگوریتم های AI را برجسته می کند ،

که در شناخت افراد از رنگ بسیار بد عمل کرده است.این ممکن است اولین بار نباشد که

فناوری مدرن به دلیل داشتن داده های مغرضانه در نرم افزارهای ساخته شده ، خطایی در

قضاوت نشان داند. به عنوان مثال چند سال پیش یک الگوریتم در گوگل به اشتباه افراد

سیاه پوست را “گوریل” طبقه بندی کرده بود. اکنون شرکت فناوری تأکید زیادی بر یادگیری

ماشین اخلاقی دارد. علاوه بر این ، چنین تعصب هایی مدتها قبل از به وجود آمدن فناوری هایی

 نظیرهوش مصنوعی وجود داشت.

ارسال نظر

آدرس ایمیل شما منتشر نخواهد شد.