تصحیح هوش مصنوعی توسط انسان

تصحیح هوش مصنوعی توسط انسان

آیا تصحیح هوش مصنوعی توسط انسان می تواند بار دیگر انسان ها را وارد این گردانه بکند؟

دانشمندان Technische Universität Darmstadt آلمان روشی را برای یک متخصص حوزه انسانی تهیه کرده اند

تا به بررسی عملکرد داخلی یک مدل هوش مصنوعی بپردازد

زیرا این آموزش برای حل یک مشکل ساده و اصلاح مکان طراحی شده است.

آیا این هوش مصنوعی می تواند برای مشکلات پیچیده تری کار کند؟

آیا با وارد کردن یک انسان در فرآیند تصمیم گیری یادگیری ماشین ،

می توان هوش مصنوعی را قابل اعتماد تر کرد؟

شاید اینگونه باشد اما شما نمی توانید بدون تلاش چیزی را به دست بیاورید

در این زمینه انسانی که در حال تصحیح هوش مصنوعی است باید به خوبی به شبکه عصبی مسلط باشد

این در حالی است که انسان ها اساسا از هوش مصنوعی برای انجام اموری استفاده می کنند که خود قابلیت انجام آن را ندارند

نویسنده اصلی این پروژه پاتریک شراموفسکی و همكاران پیشنهاد می كنند كه توضیحات ارائه شده توسط یك شبكه عصبی را بررسی كنید.

ایده این است که آنچه را “AI قابل توضیح” و “AI قابل تفسیر” خوانده می شود ، گسترش دهیم.

آنها امی گوییند که توضیح درمورد آنچه که یک شبکه عصبی انجام می دهد کافی نیست ، انسان باید واقعاً در تصحیح آنچه که در یک شبکه عصبی رخ می دهد با تمام وجود شرکت کند.

اما چرا به تصحیح هوش مصنوعی توسط انسان نیاز است؟

لاپوشکین استدلال می کند که با وجود کیفیت چشمگیر هوش مصنوعی ، گاهی اوقات صرفاً از ویژگی های مجموعه داده استفاده می شود

و نه اینکه واقعاً بازنمودهای داده های مربوط به یک مسئله را یاد بگیریم.

بنابراین مردم باید نسبت به همه “هیجان در مورد هوش دستگاه” کمی احتیاط کنند وبا عجله تصمیم گیری نکنند

اما این به این معنی نیست که این اتفاق نخواهد افتاد.

حداقل ، چارچوبی در کار Schramowski و همکاران برای چگونگی تعامل یک شخص و ماشین وجود دارد

 

 

 

ارسال نظر

آدرس ایمیل شما منتشر نخواهد شد.