پیام ویژه

آخرين مطالب

جایگاه اخلاق در هوش مصنوعی خواندنی ها

  بزرگنمايي:

اخبار ویژه - به گزارش گرداب ، فناوری اطلاعات دیجیتال دسترسی همه‌گیر به اطلاعات را در هر زمان و هر نقطه‌ای آسان کرده است. این روند تأثیر چشمگیری بر شکل‌گیری تمام ابعاد جامعه از تولید تا توزیع صنعتی تا مصرف کالاها و خدمات گذاشته است. تأثیر فناوری اطلاعات دیجیتال مانند تحولات فناوری در گذشته بسیار فراگیر است؛ به‌ طوری‌ که انسان نه‌تنها خود را با آن تطبیق می‌دهد؛ بلکه رفتار خود را هم منطبق با آن تغییر می‌دهد.
امروزه، فناوری اطلاعات دیجیتال نحوه‌ی تعامل افراد با یکدیگر در جامعه و حتی شراکت با دیگران را هم تعریف می‌کند. روابط بازتعریف بین مصرف‌کنندگان و تولیدکنندگان و تأمین‌کنندگان؛ و صنایع و نیروهای کار؛ و ارائه‌دهندگان خدمات و مشتریان؛ و دوستان و شرکا به تغییرات چشمگیری در جوامع منجر شده است که می‌تواند هشداری برای نتیجه‌گیری‌های اخلاقی باشد. خیلی زود انسان امروزی با موج بعدی تحولات فناوری روبه‌رو خواهد شد: هوش مصنوعی. انقلاب دیجیتال اواخر قرن بیستم دسترسی به اطلاعات را بسیار ساده کرده است و امکان تصمیم‌گیری سریع را فراهم می‌کند؛ به‌ طوری‌ که برای مثال، سازمان‌ها صرفا به اتخاذ تصمیم‌های بنیادی اکتفا می‌کنند و سایر تصمیم‌ها را واگذار می‌کنند.
هوش مصنوعی در حال تغییر است و با خودکارسازی فرایند تصمیم‌گیری، نویدبخش نتایج باکیفیت‌تر و بهبود بازدهی است. موفقیت‌های سیستم‌های بازی هوش مصنوعی در شکست قهرمان شطرنج گری کاسپاروف و قهرمان Go، کی جای، ابعاد کیفی هوش مصنوعی و برتری آن بر انسان در محاسباتی مثل تأثیر تصمیم‌گیری لحظه‌ای بر حرکت‌های احتمالی آینده را ثابت می‌کنند. متأسفانه هوش مصنوعی در فرایند تصمیم‌گیری، شفافیت، قابلیت توصیف، قابلیت پیش‌گویی، قابلیت آموزش، قابلیت محاسبه‌ی حرکت انسانی را حذف کرده و ابهام را جایگزین آن‌ها می‌کند. منطق حرکت نه‌تنها برای بازیکنان، بلکه برای خالق برنامه هم مجهول است. در چنین شرایطی، وقتی هوش مصنوعی شروع به تصمیم‌گیری می‌کند، دیگر اثری از شفافیت و قابلیت پیش‌گویی دیده نمی‌شود.
حالا فرض کنید کودکی از والدین خود برای تماشای فیلم با دوستانش اجازه بخواهد و والدین موافقت می‌کنند، یک هفته بعد، کودک دیگر همان درخواست را می‌کند؛ اما این‌بار والدین رد می‌کنند. این داستان ساده، مسئله‌ی نابرابری و سلیقه‌محوری را مطرح می‌کند. برای اجتناب از اتهام سلیقه‌محوری، والدین به کودک خود توضیح می‌دهند که قبل از دریافت پول‌توجیبی باید تکالیف خود را انجام دهد. در صورتی‌ که والدین به کودک خود دلیل این کار را توضیح ندهند، احتمال شدت‌گرفتن تنش در خانواده وجود دارد. حالا فرض کنید سیستم هوش مصنوعی چنین نقشی را ایفا کند که از هزاران خانواده در موقعیت‌های مختلف داده جمع‌آوری کرده است. سیستم با بررسی پیامد اجازه‌دادن در خانواده‌ها می‌تواند این‌ طور نتیجه بگیرد که یکی از بچه‌ها می‌تواند پول‌توجیبی بگیرد؛ در حالی‌ که دیگری مجاز به دریافت پول نیست.
با این حال، سیستم هوش مصنوعی نمی‌تواند دلیل کار خود را توضیح دهد؛ بلکه فقط می‌تواند با وزن‌دهی به معیارهایی مثل رنگ مو، وزن، قد و دیگر مشخصات کودک، بهترین تصمیم ممکن را برای خانواده‌های دیگر هم اتخاذ کند. این سیستم چگونه کار می‌کند؟ در دادگاه‌های قدیم، حتی در صورت یکسان‌نبودن شرایط و شباهت تقریبی آن‌ها، تصمیم‌گیری نهایی براساس ترکیبی از حکم‌ها اتخاذ می‌شد. این در حالی است که هوش مصنوعی به رأی بر مبنای سابقه یا قاعده‌ی سابقه نیازی ندارد. تصمیم‌های هوش مصنوعی می‌توانند برای انسان‌ها ساختگی به نظر برسند؛ زیرا معمولا انسان‌ها به مجموعه‌ی محدودی از تجربه‌های مستقیم و غیرمستقیم تمایل دارند؛ در حالی‌ که ماشین‌ها به مجموعه‌ی گسترده‌ای از داده‌ها دسترسی دارند.
انسان‌ها نمی‌توانند با دقت زیاد تجربیات خود را در بازه‌ی زمانی طولانی‌مدت جست‌وجو کنند؛ در حالی‌ که این کار برای ماشین بسیار ساده است. انسان‌ها معمولا معیارهایی را حذف می‌کنند که به نظر غیرمرتبط یا غیرمنطقی می‌رسند؛ در حالی‌ که ماشین معمولا چیزی را حذف نمی‌کند. درنتیجه، ماشین ممکن است تصمیم‌های غیرمرتبط باسابقه را اتخاذ کند که در مقیاس درک‌پذیر انسان قرار ندارد. با حرکت سریع کسب‌وکارها و جوامع به‌سمت هوش مصنوعی و بهبود تصمیم‌گیری در افق زمانی طولانی‌تر، انسان به‌ دلیل چشم‌انداز محدود عقب‌نشینی می‌کند و ناامید می‌شود و تنها ارزش برای عملکرد صحیح جامعه، یعنی اعتماد، هم به‌ مرور کاهش پیدا می‌کند.
برای درک میزان ساختگی‌بودن تصمیم‌های هوش مصنوعی، باید روش تصمیم‌گیری انسان را بررسی کرد. انسان‌ها معمولا براساس مجموعه‌ای از قوانین آشکار یا روابط مبتنی بر پیامدگرایی و ترکیب تصمیم می‌گیرند. انسان‌ها در برابر اطلاعات مرتبط برای تصمیم‌گیری گزینشی عمل می‌کنند؛ اما ماشین‌ها به‌صورت غیرگزینشی عمل می‌کنند و حتی معیارهایی را در نظر می‌گیرند که در روند تصمیم‌گیری برای انسان اهمیتی ندارند. مثال‌های بی‌شماری از این نمونه وجود دارد که می‌توان به غیرفعال‌سازی ربات چت مایکروسافت پس از ارسال متن‌های ضدیهودی در توییتر یا بررسی دانشگاه بوتسون اشاره کرد که رابطه‌ی جنسیتی کلماتی مثل Boss و Architect و Financier با مردان و رابطه‌ی جنسیتی کلماتی مثل Nurse و Receptionist با زنان را آشکار کرد. این خروجی‌ها را احتمالا داده‌ها تولید می‌کنند؛ اما در تضاد با ارزش‌های آشکار انسانی هستند. اگر فرایندهای داده‌محور به خروجی الگوریتم‌های هوش مصنوعی وابسته باشند، تصمیم‌های انحرافی را به بار خواهند آورد که اغلب اوقات در تضاد با ارزش‌های اخلاقی هستند.
نفوذناپذیری هوش مصنوعی مانع از تصمیم‌گیری صحیح می‌شود
در سال 2016، ProPublica شواهد چشمگیری از این‌ دست را ارائه داد. برای مثال، دادگاه‌های ایالات‌ متحده از برنامه‌ای کامپیوتری استفاده کرده بودند که به‌اشتباه متهمان سیاه‌پوست را که در بازه‌‌ای دوساله مرتکب جرمی نشده بودند، به‌عنوان مجرم با نرخ دوبرابر متهمان سیاه‌پوست بار دیگر پرچم‌گذاری کرده بود (45 در مقایسه با 23 درصد). این در حالی است که اگر انسانی این کار را انجام می‌داد، لقب نژادپرست به او داده می‌شد.
هوش مصنوعی می‌تواند بین تجربیات جمعی و ارزش‌های آشکار جدایی بیندازد. تجربه‌های جمعی ایستا نیستند؛ بلکه براساس تصمیم‌های مهم اجتماعی شکل می‌گیرند. تصمیم‌های اجتماعی هم براساس ارزش‌های اخلاقی اتخاذ می‌شوند؛ بنابراین، آیا فرایند تصمیم‌گیری به ماشینی واگذار می‌شود که صرفا درباره‌ی گذشته به یادگیری می‌پردازد نه آینده؟ با توجه به مقیاس کاربردهای هوش مصنوعی در زمینه‌هایی مثل تشخیص پزشکی، خدمات مالی و نظارت بر کارمند، حتی تغییرات کوچک هم پیامدهای شدید خواهند داشت. از آنجا که روزبه‌روز عملکرد الگوریتم‌ها در زمینه‌ی پیش‌گویی بهبود پیدا می‌کند، منطق ناظر بر چنین تصمیم‌هایی هم نفوذ‌ناپذیر خواهند شد.
بر همین اساس، انسان دیدگاه جامع تصمیم‌گیری را از دست می‌دهد و تمام اصول گذشته را کنار می‌گذارد. در بعضی نمونه‌ها، این مسئله می‌تواند غیراخلاقی و غیرقانونی و حتی کوته‌بینانه باشد. برای مثال، الگوریتم تکرار جرم اصولی مثل سابقه‌ی بی‌گناهی و برابری فرصت‌ها را نادیده گرفته است. سازگاری یکی از پیش‌نیازهای لازم اخلاق و یکپارچه‌سازی است. تصمیم‌ها باید به استاندارد‌هایی بیشتر از دقت آماری وابسته باشند. قرن‌ها است که فضیلت‌های مشترکی مثل اعتماد متقابل، کاهش آسیب، برابری و عدالت خود را به‌عنوان شاخص‌های بقای هرگونه‌ سیستم استنتاجی ثابت کرده‌اند.
بدون سازگاری منطقی، سیستم‌های هوش مصنوعی از ثبات و پاسخ‌گویی محروم می‌شوند. ثبات و پاسخ‌گویی دو عامل اساسی برای اعتمادسازی در طبیعت به شمار می‌روند. نفوذناپذیری تصمیم‌های داده‌محور با ایجاد شکاف بین تمایل‌های اخلاقی و استدلال‌های منطقی، مانع از دخالت در فرایندهای تصمیم‌گیری می‌شود. دنیای جدید انسان این‌گونه است؛ جایی که تصمیم‌های پیچیده به انتخاب‌های انعکاسی تقلیل می‌یابند و براساس خروجی‌های نظارت‌شده اعمال می‌شوند؛ جایی که پیچیدگی به‌سادگی تبدیل می‌شود و فناپذیری به کاربردپذیری. امروزه، ادراک انسان از اخلاق به‌ منزله‌ی چارچوبی برای تصمیم‌گیری در نظر گرفته می‌شود. مدت زیادی نیست که تصمیم‌گیری‌های انسان، سایه‌ی شک را بر اخلاق انداخته است.
منبع: زومیت

لینک کوتاه:
https://www.payamevijeh.ir/Fa/News/236155/

نظرات شما

ارسال دیدگاه

Protected by FormShield
مخاطبان عزیز به اطلاع می رساند: از این پس با های لایت کردن هر واژه ای در متن خبر می توانید از امکان جستجوی آن عبارت یا واژه در ویکی پدیا و نیز آرشیو این پایگاه بهره مند شوید. این امکان برای اولین بار در پایگاه های خبری - تحلیلی گروه رسانه ای آریا برای مخاطبان عزیز ارائه می شود. امیدواریم این تحول نو در جهت دانش افزایی خوانندگان مفید باشد.

ساير مطالب

قیمت این خودرو 30 میلیون تومان ارزان شد

اصفهان؛ میخی بر تابوت اسرائیل

لحظات حساس از نجات نوزاد سه روزه توسط اپراتور هلال احمر

گزارش درآمد سه ماهه متا اعلام شد؛ سقوط 16 درصدی سهام غول فناوری

نجات روسیه با اقتصاد موازی

پورعباس: کنکور در سلامت کامل برگزار شد

رادان: تمام آبرویمان را برای دین و ارزش‌های اسلامی می‌گذاریم و از این راه عقب‌نشینی نخواهیم کرد

«صفحه اول اینترنت» برای تمرکز بیشتر بر دیدگاه‌ها، آپدیت شد

نرخ مصوب انواع میوه اعلام شد؛ قیمت گوجه سبز سر به فلک کشید!

متکی هیچ تماسی با ابوترابی برای ریاست مجلس نداشته است

کاهش 14 درصدی جانباختگان حوادث رانندگی در سفرهای نوروزی

شیائومی نیامده رکورد زد!

شاهکار ایرانی در سریلانکا

اقدام شیطانی مرد شیاد به زنان در نقش شرکت در مراسم ترحیم

بی‌رمقی اونس جهانی برای سومین روز متوالی

فیلمی که آمریکا را به وحشت انداخت!

«اقتصاد» میدان شلغم‌فروشان شده است!

مطالبه‌گری؛ مهمترین برنامه عملیاتی بنیاد شهید و امور ایثارگران در دولت سیزدهم

مرگ دردناک مرد تبریزی زیر چرخ های قطار مسافربری

بررسی گوشی Redmi 10 5G؛ اقتصادی و پرطرفدار

مهاجرت با ویزای جعلی

"کینه خونین" کارگر قهوه‌خانه شهر ری را قربانی کرد

آتش سوزی گسترده در هند؛ شش نفر کشته شدند

«طوفان اقصی» کار این ژنرال اسرائیلی را ساخت

هشدار درباره آینده اقتصاد ایران

سردار رادان: موضوع حجاب اصلا موضوع امنیتی نیست

آخرین وضعیت سیل در سیستان‌وبلوچستان؛ راه‌ ارتباطی 70 روستا همچنان مسدود است

اختلاف بر سر افزایش حقوق بازنشستگان؛ مبنا کدام قانون باید باشد؟

مقایسه نرخ رشد اقتصادی ایران در میان اقتصادهای بزرگ دنیا

تردز حالا 150 میلیون کاربر ماهانه دارد

کیش برترین منطقه آزاد در حوزه‌ی اقتصادی شد

تصادف زنجیره‌ای عجیب در ارومیه

هشدار هواشناسی نسبت به رگبار باران و وزش باد شدید در برخی استان‌ها

آبگرفتگی خیابان‌های شهر کرمان پس از بارش شدید باران

انتقاد از مصوبه مجلس در مورد مالیات طلا؛ دیگر مردم سمت خرید طلا هم نمی‌آیند

کیش در صدر مناطق آزاد نشست/ تقدیر ویژه‌ی معاون اول رئیس‌جمهور و وزیر اقتصاد از مدیرعامل سازمان منطقه آزاد کیش به عنوان رتبه‌ی برتر روابط عمومی و تصویرسازی

لاجوردی: مماشات کنیم مقابله با بی حجابی سخت‌تر می‌شود

قیمت تخم‌مرغ در سراشیبی افتاد؟

مایکروسافت حجم آپدیت‌های ماهانه ویندوز 10 را به‌شدت کاهش داد

دیدار چهره به چهره مدیرکل بنیاد شهید و امور ایثارگران استان اردبیل با جامعه معظم ایثارگری

پایان ماراتن داوطلبان کنکور ریاضی، انسانی و فرهنگیان

سایه‌روشن سهام سرخابی‌ها

رونمایی از نخستین موتور بنزینی شش سیلندر ایرانی

تقاضا برای هدست ویژن پرو اپل رو به کاهش است

همسر سید مصطفی خمینی درگذشت

قالیباف: بانک مرکزی برای مدیریت بازار ارز برنامه ندهد مجلس برنامه می‌دهد

غرق شدن دو کودک در رودخانه ماشکید سراوان

ارز حج 1403 تامین شد

قیمت HDD سیگیت و وسترن دیجیتال افزایش یافت

پیش‌بینی هوای تابستان امسال