اخلاقی

چندی پیش، گوگل اعلام کرد که این هیئت اخلاقی جدیدی را برای هدایت «توسعه مسئولانه هوش مصنوعی» در اختیار دارد. به نظر می رسد این یک حرکت قابل تحسین باشد اما این شرکت با انتقاد شدید مواجه شده است.

محققان از گوگل، مایکروسافت، فیس بوک و دانشگاه های برتر به عضویت هیئت مدیره کی کیس کالج جیمز، مدیر مسئول معاونت حقوقی بنیاد میراث به این موضوع  پرداختندآنها اشاره کردند که جیمز و سازمان او مبارزه علیه قوانین ضد تبعیض برای گروه های LGBTQ و حمایت از تغییرات آب و هوایی را انکار می کنند و باعث ناتوانی در ارائه توصیه های اخلاقی به قدرتمندترین شرکت AI جهان می شوندتقاضای بازخواست که خواستار حذف جیمز بود (در حال حاضر بیش از ۱۷۰۰ امضا را گرفته است) و به عنوان بخشی از واکنش، یکی از اعضای هیأت تازه تشکیل شده استعفا داد .

گوگل هنوز درباره همه ی اینها پاسخ نداده اما برای بسیاری از افراد جامعه AI، این یک مثال واضح از عدم توانایی Big Tech است که صادقانه و آشکارا به کار خود با اخلاق رفتار کند.

بحث اخلاق

با بحث های اخیر درباره اخلاق آی.تیدر چند سال گذشته، شرکت های فناوری به نظر می رسد که خود را در معرض اخلاق قرار داده اند: ایجاد هیئت های اخلاق، نوشتن اخطار نامه های اخلاقی و حمایت از تحقیقات در موضوعات مانند تعصب الگوریتمیاما آیا این هیئت ها و منشورها هر کاری را انجام می دهند؟ آیا آنها که چگونگی کار این شرکتها تغییر می کنند و یا آنها را به نحوی معنی دار پاسخگویی می کنند؟

بن وگنر می گوید شور و شوق تکنولوژی برای لوازم الکترونیکی اخلاقی فقطشستن اخلاقاست، استراتژی برای جلوگیری از مداخله دولتوقتی محققان روش های جدیدی را برای تکنولوژی برای به خطر انداختن گروه های به حاشیه رانده شده یا نقض آزادی های مدنی کشف می کنند، شرکت های فن آوری می توانند به هیئت مدیره خود اشاره کنند و بگویند: «ما کاری انجام می دهیم و چون هیئت مدیره نا توان است ، به این معنی است که شرکت ها تغییر نمی کنند.

انفجار اخلاقی

البته گوگل تنها شرکتی نیست که هیئت اخلاقی و منشور را دارد. DeepMind یکی از شرکت های AI وابسته به کوکل در لندن نیز یکی از آن هاست، هر چند که هرگز نشان نمی دهد که چه کسی بر روی آن کار می کند و چه چیزی را انجام می دهد .مایکروسافت اصولAI  خود  را دارد و کمیته اخلاقی AI را در سال ۲۰۱۸ تأسیس کردآمازون با کمک بنیاد ملی علوم حمایت از تحقیقات پروژه ای  در موردعدالت در هوش مصنوعی” آغاز کرده است ، در حالی که فیس بوک حتی یک مرکز تحقیق اخلاقی AI را در آلمان تاسیس کرده است.

نظر محققان

رامان چوودوری، دانشمند داده و سرپرست AI مسئول در مشاوره مدیریت Accenture می گوید: با وجود گسترش هوش مصنوعی، این برنامه ها تمایل دارند تا ضعف های اساسی را به اشتراک بگذارندیکی از مهمترین نکات این است که آنها فاقد شفافیت هستند.

Chowdhury اشاره می کند که بسیاری از مهم ترین موسسات جامعه، از دانشگاه ها تا بیمارستان ها، در طول زمان، هیئت بازرسی موثر را که ارزش های موسسات را در منافع عمومی نشان می دهد، ایجاد کرده انداما در مورد Big Tech، این امر مشخص نیست.

این هیئت بازرسی نمی تواند تغییرات ایجاد کند، فقط می تواند پیشنهادات را ارائه دهد

در نشریات

Chowdhury به The Verge می گوید: “این به این معنا نیست که مردم علیه نهاد های حکومتی هستند، اما ما شفافیت در ساختار آنها نداریم.” با توجه به آخرین هیئت بازرسی گوگل، او میگوید: “این هیئت مدیره نمیتواند تغییرات ایجاد کند، فقط میتواند پیشنهادات را ارائه دهدآنها نمی توانند در مورد آن با مردم صحبت کنندپس  برچه ویژگی های نظارتی دارند؟

مطالعه

یک مطالعه از سال ۲۰۱۸ سعی کرد تا آزمایش کند که کدام رفتار می تواند بر تصمیم گیری اخلاقی برنامه نویسان تاثیر بگذارداین دو گروه از توسعه دهندگان را با مجموعه ای از مشکلات احتمالی که ممکن است در کار روبرو شوند، مورد بررسی قرار دادپیش از پاسخ دادن به یک گروه گفته شد که کد اخلاقی صادر شده توسط انجمن ماشین آلات رایانه را در نظر بگیریم، در حالی که گروه دیگری به سادگی گفته که شرکت پیش فرضی که بر اصول اخلاقی قوی کار می کرد، ادامه می دهداین مطالعه نشان داد که افراد امتحان اولیه با کد اخلاقبر روی پاسخ های آنها هیچ تاثیری نداشتند“.

نتیجه

با توجه به اینکه چگونه شرکت ها عمل می کنند، بی اندازه دلسرد کننده هستندبرای مثال، گوگل، منشور اخلاقی AI را تنها پس از اعتراض به کار خود در کمک به ابزار تجزیه و تحلیل طراحی پنتاگون برای هواپیماهای بدون سرنشین ایجاد کردبعد از آن، موتور جستجوی سانسور چینی خود را توسعه داد، پروژهشیی است که احتمالا به نوعی به AI مربوط می شود و بسیاری فکر می کنند که حقوق بشر را نقض می کند. (گوگل می گوید کار بر روی این پروژه متوقف شده است، اما گزارش کارکنان غیراز این را می گوید.)