پیام ویژه

آخرين مطالب

جایگاه اخلاق در هوش مصنوعی خواندنی ها

جایگاه اخلاق در هوش مصنوعی

  بزرگنمايي:

اخبار ویژه - به گزارش گرداب ، فناوری اطلاعات دیجیتال دسترسی همه‌گیر به اطلاعات را در هر زمان و هر نقطه‌ای آسان کرده است. این روند تأثیر چشمگیری بر شکل‌گیری تمام ابعاد جامعه از تولید تا توزیع صنعتی تا مصرف کالاها و خدمات گذاشته است. تأثیر فناوری اطلاعات دیجیتال مانند تحولات فناوری در گذشته بسیار فراگیر است؛ به‌ طوری‌ که انسان نه‌تنها خود را با آن تطبیق می‌دهد؛ بلکه رفتار خود را هم منطبق با آن تغییر می‌دهد.
امروزه، فناوری اطلاعات دیجیتال نحوه‌ی تعامل افراد با یکدیگر در جامعه و حتی شراکت با دیگران را هم تعریف می‌کند. روابط بازتعریف بین مصرف‌کنندگان و تولیدکنندگان و تأمین‌کنندگان؛ و صنایع و نیروهای کار؛ و ارائه‌دهندگان خدمات و مشتریان؛ و دوستان و شرکا به تغییرات چشمگیری در جوامع منجر شده است که می‌تواند هشداری برای نتیجه‌گیری‌های اخلاقی باشد. خیلی زود انسان امروزی با موج بعدی تحولات فناوری روبه‌رو خواهد شد: هوش مصنوعی. انقلاب دیجیتال اواخر قرن بیستم دسترسی به اطلاعات را بسیار ساده کرده است و امکان تصمیم‌گیری سریع را فراهم می‌کند؛ به‌ طوری‌ که برای مثال، سازمان‌ها صرفا به اتخاذ تصمیم‌های بنیادی اکتفا می‌کنند و سایر تصمیم‌ها را واگذار می‌کنند.
هوش مصنوعی در حال تغییر است و با خودکارسازی فرایند تصمیم‌گیری، نویدبخش نتایج باکیفیت‌تر و بهبود بازدهی است. موفقیت‌های سیستم‌های بازی هوش مصنوعی در شکست قهرمان شطرنج گری کاسپاروف و قهرمان Go، کی جای، ابعاد کیفی هوش مصنوعی و برتری آن بر انسان در محاسباتی مثل تأثیر تصمیم‌گیری لحظه‌ای بر حرکت‌های احتمالی آینده را ثابت می‌کنند. متأسفانه هوش مصنوعی در فرایند تصمیم‌گیری، شفافیت، قابلیت توصیف، قابلیت پیش‌گویی، قابلیت آموزش، قابلیت محاسبه‌ی حرکت انسانی را حذف کرده و ابهام را جایگزین آن‌ها می‌کند. منطق حرکت نه‌تنها برای بازیکنان، بلکه برای خالق برنامه هم مجهول است. در چنین شرایطی، وقتی هوش مصنوعی شروع به تصمیم‌گیری می‌کند، دیگر اثری از شفافیت و قابلیت پیش‌گویی دیده نمی‌شود.
حالا فرض کنید کودکی از والدین خود برای تماشای فیلم با دوستانش اجازه بخواهد و والدین موافقت می‌کنند، یک هفته بعد، کودک دیگر همان درخواست را می‌کند؛ اما این‌بار والدین رد می‌کنند. این داستان ساده، مسئله‌ی نابرابری و سلیقه‌محوری را مطرح می‌کند. برای اجتناب از اتهام سلیقه‌محوری، والدین به کودک خود توضیح می‌دهند که قبل از دریافت پول‌توجیبی باید تکالیف خود را انجام دهد. در صورتی‌ که والدین به کودک خود دلیل این کار را توضیح ندهند، احتمال شدت‌گرفتن تنش در خانواده وجود دارد. حالا فرض کنید سیستم هوش مصنوعی چنین نقشی را ایفا کند که از هزاران خانواده در موقعیت‌های مختلف داده جمع‌آوری کرده است. سیستم با بررسی پیامد اجازه‌دادن در خانواده‌ها می‌تواند این‌ طور نتیجه بگیرد که یکی از بچه‌ها می‌تواند پول‌توجیبی بگیرد؛ در حالی‌ که دیگری مجاز به دریافت پول نیست.
با این حال، سیستم هوش مصنوعی نمی‌تواند دلیل کار خود را توضیح دهد؛ بلکه فقط می‌تواند با وزن‌دهی به معیارهایی مثل رنگ مو، وزن، قد و دیگر مشخصات کودک، بهترین تصمیم ممکن را برای خانواده‌های دیگر هم اتخاذ کند. این سیستم چگونه کار می‌کند؟ در دادگاه‌های قدیم، حتی در صورت یکسان‌نبودن شرایط و شباهت تقریبی آن‌ها، تصمیم‌گیری نهایی براساس ترکیبی از حکم‌ها اتخاذ می‌شد. این در حالی است که هوش مصنوعی به رأی بر مبنای سابقه یا قاعده‌ی سابقه نیازی ندارد. تصمیم‌های هوش مصنوعی می‌توانند برای انسان‌ها ساختگی به نظر برسند؛ زیرا معمولا انسان‌ها به مجموعه‌ی محدودی از تجربه‌های مستقیم و غیرمستقیم تمایل دارند؛ در حالی‌ که ماشین‌ها به مجموعه‌ی گسترده‌ای از داده‌ها دسترسی دارند.
انسان‌ها نمی‌توانند با دقت زیاد تجربیات خود را در بازه‌ی زمانی طولانی‌مدت جست‌وجو کنند؛ در حالی‌ که این کار برای ماشین بسیار ساده است. انسان‌ها معمولا معیارهایی را حذف می‌کنند که به نظر غیرمرتبط یا غیرمنطقی می‌رسند؛ در حالی‌ که ماشین معمولا چیزی را حذف نمی‌کند. درنتیجه، ماشین ممکن است تصمیم‌های غیرمرتبط باسابقه را اتخاذ کند که در مقیاس درک‌پذیر انسان قرار ندارد. با حرکت سریع کسب‌وکارها و جوامع به‌سمت هوش مصنوعی و بهبود تصمیم‌گیری در افق زمانی طولانی‌تر، انسان به‌ دلیل چشم‌انداز محدود عقب‌نشینی می‌کند و ناامید می‌شود و تنها ارزش برای عملکرد صحیح جامعه، یعنی اعتماد، هم به‌ مرور کاهش پیدا می‌کند.
برای درک میزان ساختگی‌بودن تصمیم‌های هوش مصنوعی، باید روش تصمیم‌گیری انسان را بررسی کرد. انسان‌ها معمولا براساس مجموعه‌ای از قوانین آشکار یا روابط مبتنی بر پیامدگرایی و ترکیب تصمیم می‌گیرند. انسان‌ها در برابر اطلاعات مرتبط برای تصمیم‌گیری گزینشی عمل می‌کنند؛ اما ماشین‌ها به‌صورت غیرگزینشی عمل می‌کنند و حتی معیارهایی را در نظر می‌گیرند که در روند تصمیم‌گیری برای انسان اهمیتی ندارند. مثال‌های بی‌شماری از این نمونه وجود دارد که می‌توان به غیرفعال‌سازی ربات چت مایکروسافت پس از ارسال متن‌های ضدیهودی در توییتر یا بررسی دانشگاه بوتسون اشاره کرد که رابطه‌ی جنسیتی کلماتی مثل Boss و Architect و Financier با مردان و رابطه‌ی جنسیتی کلماتی مثل Nurse و Receptionist با زنان را آشکار کرد. این خروجی‌ها را احتمالا داده‌ها تولید می‌کنند؛ اما در تضاد با ارزش‌های آشکار انسانی هستند. اگر فرایندهای داده‌محور به خروجی الگوریتم‌های هوش مصنوعی وابسته باشند، تصمیم‌های انحرافی را به بار خواهند آورد که اغلب اوقات در تضاد با ارزش‌های اخلاقی هستند.
نفوذناپذیری هوش مصنوعی مانع از تصمیم‌گیری صحیح می‌شود
در سال 2016، ProPublica شواهد چشمگیری از این‌ دست را ارائه داد. برای مثال، دادگاه‌های ایالات‌ متحده از برنامه‌ای کامپیوتری استفاده کرده بودند که به‌اشتباه متهمان سیاه‌پوست را که در بازه‌‌ای دوساله مرتکب جرمی نشده بودند، به‌عنوان مجرم با نرخ دوبرابر متهمان سیاه‌پوست بار دیگر پرچم‌گذاری کرده بود (45 در مقایسه با 23 درصد). این در حالی است که اگر انسانی این کار را انجام می‌داد، لقب نژادپرست به او داده می‌شد.
هوش مصنوعی می‌تواند بین تجربیات جمعی و ارزش‌های آشکار جدایی بیندازد. تجربه‌های جمعی ایستا نیستند؛ بلکه براساس تصمیم‌های مهم اجتماعی شکل می‌گیرند. تصمیم‌های اجتماعی هم براساس ارزش‌های اخلاقی اتخاذ می‌شوند؛ بنابراین، آیا فرایند تصمیم‌گیری به ماشینی واگذار می‌شود که صرفا درباره‌ی گذشته به یادگیری می‌پردازد نه آینده؟ با توجه به مقیاس کاربردهای هوش مصنوعی در زمینه‌هایی مثل تشخیص پزشکی، خدمات مالی و نظارت بر کارمند، حتی تغییرات کوچک هم پیامدهای شدید خواهند داشت. از آنجا که روزبه‌روز عملکرد الگوریتم‌ها در زمینه‌ی پیش‌گویی بهبود پیدا می‌کند، منطق ناظر بر چنین تصمیم‌هایی هم نفوذ‌ناپذیر خواهند شد.
بر همین اساس، انسان دیدگاه جامع تصمیم‌گیری را از دست می‌دهد و تمام اصول گذشته را کنار می‌گذارد. در بعضی نمونه‌ها، این مسئله می‌تواند غیراخلاقی و غیرقانونی و حتی کوته‌بینانه باشد. برای مثال، الگوریتم تکرار جرم اصولی مثل سابقه‌ی بی‌گناهی و برابری فرصت‌ها را نادیده گرفته است. سازگاری یکی از پیش‌نیازهای لازم اخلاق و یکپارچه‌سازی است. تصمیم‌ها باید به استاندارد‌هایی بیشتر از دقت آماری وابسته باشند. قرن‌ها است که فضیلت‌های مشترکی مثل اعتماد متقابل، کاهش آسیب، برابری و عدالت خود را به‌عنوان شاخص‌های بقای هرگونه‌ سیستم استنتاجی ثابت کرده‌اند.
بدون سازگاری منطقی، سیستم‌های هوش مصنوعی از ثبات و پاسخ‌گویی محروم می‌شوند. ثبات و پاسخ‌گویی دو عامل اساسی برای اعتمادسازی در طبیعت به شمار می‌روند. نفوذناپذیری تصمیم‌های داده‌محور با ایجاد شکاف بین تمایل‌های اخلاقی و استدلال‌های منطقی، مانع از دخالت در فرایندهای تصمیم‌گیری می‌شود. دنیای جدید انسان این‌گونه است؛ جایی که تصمیم‌های پیچیده به انتخاب‌های انعکاسی تقلیل می‌یابند و براساس خروجی‌های نظارت‌شده اعمال می‌شوند؛ جایی که پیچیدگی به‌سادگی تبدیل می‌شود و فناپذیری به کاربردپذیری. امروزه، ادراک انسان از اخلاق به‌ منزله‌ی چارچوبی برای تصمیم‌گیری در نظر گرفته می‌شود. مدت زیادی نیست که تصمیم‌گیری‌های انسان، سایه‌ی شک را بر اخلاق انداخته است.
منبع: زومیت




نظرات شما

ارسال دیدگاه

Protected by FormShield

ساير مطالب

افزایش خطر ابتلا به افسردگی برای نوجوانان معتاد به اینترنت

معماری شبکه ملی اطلاعات، کار وزارت ارتباطات است

شروط موافقیت با استخراج ارز دیجیتال اعلام شد

هشدار پلیس در مورد پیامدهای ناخواسته استفاده از Faceapp

اتصال مدارس به شبکه ملی اطلاعات تا پایان سال

بخشنامه دادستان کل کشور درباره سایت‌های قمار و شرط بندی

تحمیل اقتدار ایران به انگلیس و آمریکا خبر اول دنیا

دردسر‌های یک قتل خانوادگی برای اصلاحات

پشت دیوار انتخابات

مشکل جدید؛ زیرزمینی شدن بیت‌کوین!

اتفاقی عجیب در تاکسیرانی؛

واکاوی ادعای جدید در قتل میترا استاد

رویای ایران هوشمند در حال تحقق است

رایانش ابری یا Cloud Computing چیست؟

دلیل عدم تحقق دولت الکترونیک در بستر پیام‌رسان‌های بومی

شهر هوشمند از زبان معاونان وزیر ارتباطات

شبکه ملی اطلاعات مهم‌ترین راهکار مواجهه با آسیب‌های فضای مجازی

تفكرچپ به دیكتاتوری منتهی می‌شود

انسان بر روی ماه ـ ارزشش را داشت؟

روایت سی ان ان از گاف های رییس جمهور آمریکا : توئیت ترامپ درباره ایران سه اشتباه داشت

«مرد فیل نما» درگذشت

ترامپ مرزهای علم «آناتومی» را جابجا کرد: «کلیه» یک جای خیلی مهم در «قلب» است!

سیستم عامل طراحی شده موبایل کاملا ایرانی است

جایگاه اخلاق در هوش مصنوعی

اندروید ایرانی چاره روز بیچارگی است

در حوزه سواد بازی عقب‌افتادگی داریم!

سوءاستفاده باج افزاری از آسیب پذیری ویندوز

هجوم جویندگان الماس به سیبری

تحلیل نشریه آمریکایی از سامانه‌ای که دیروز رونمایی شد

کلاهبرداری 20 هزار دلاری خـانم منشی

یک مارمولک سه نفر را راهی بیمارستان کرد

بیانیه انجمن بلاکچین ایران در رابطه با ماینرهای ارز دیجیتال

ماندگاری تلگرام 400 میلیارد هزینه داشته است!

با انجام وظایف وزارت ارتباطات، یک‌سوم شبکه ملی اطلاعات محقق می‌شود

حکایت معجزه‌ ساخت پل آهنی در قم!

برای استخراج کنندگان بیت کوین پروانه قانونی صادر شود

بهزاد نبوی : اصلاً تصور نمی کردم روحانی رای بیاورد

عجیب‌ترین قوانین دنیا درباره غذاها

دلایل برتری محصولات لبنی سنتی نسبت به صنعتی

مزایا و معایب نسل پنجم اینترنت

در دورهمی همسران سیاستمداران جهان چه می‌گذرد؟ +عکس

ملاقات با مردی که 4 هزار حکم قصاص صادر کرد +فیلم

کشف بدافزار جدید در گوگل پلی

محاسبات لبه (edge computing) مدل پیشرفته‌شده یارانش ابری

چگونه یار امام زمان (عج) شویم؟

سنگاپور مجوز تاسیس بانک دیجیتال صادر می کند

کوچ سلبریتی‌ها چالش جدید مدیر اسرائیلی اینستاگرام

یک ماه مصرف آب در خانه به اندازه هزینه یک ساندویچ!

پایان‌نامه‌های مهدوی به کتاب تبدیل می‌شوند

بیماری حضرت ایوب(ع) چگونه بهبود یافت