رمز من - ramzeman
پژوهشگاه فضای مجازی بررسی كرد؛

آیا هوش مصنوعی به اندازه انسان ها خوب است

آیا هوش مصنوعی به اندازه انسان ها خوب است پژوهشگاه گروه مطالعات اخلاقی فضای مجازی با بررسی مبحث اخلاق و هوش مصنوعی، به این سؤال پاسخ می دهد كه آیا هوش مصنوعی به اندازه انسان ها خوب است؟


به گزارش رمز من به نقل از پژوهشگاه فضای مجازی، وقتی بحث بر سر اصول اخلاقی هوش مصنوعی و این که چگونه فناوری می تواند اشتباه کند، پیش می آید، غالباً ذهن مردم تحت تاثیر صحنه های فیلم های هالیوودی قرار می گیرد. این که چه اتفاقی می افتد اگر این ابزار ضد ما برانگیخته شود و آغاز به تیراندازی به مردم در خیابان کند؟! گرچه ما باید پذیرای همه احتمالات باشیم، اما نگرانی های اساسی تری هم در مورد اخلاقیات هوش مصنوعی وجود دارد. در طول تاریخ، عرضه چندین اختراع در حوزه فناوری بحث در مورد اصول اخلاقی در زمینه استفاده و یا حتی وجود آن فناوری را دامن زده است؛ همینطور با پررنگ تر شدن هوش مصنوعی در جامعه و مسائل اخلاقی پیرامون آن احساس نیاز به برنامه ای جامع برای رسیدگی به مسائل اخلاقی و چارچوب های آن بیشتر شد. در ادامه، نگاهی به جنبه های مختلف اخلاق و هوش مصنوعی خواهیم داشت. مبحث انصاف در نخستین روز کنفرانس مجازی EmTech Asia۲۰۲۰، دانشمند مشهور پیتر نورویگ، مدیر بخش تحقیقات گوگل، در مورد مساله انصاف در اجرای هوش مصنوعی سخنرانی کرد. وی نمونه ای از نتایج جستجوی تصاویر در گوگل را نمایش داد. در گذشته، هنگامی که کاربران کلمه کلیدی «دکتر» را جستجو می کردند، تنها احتمال نمایش تصاویری شبیه به مردان قفقازی با کت های آزمایشگاهی سفید وجود داشت. اما امروزه تنوع جنسیتی و نژادی بیشتری در نتایج قابل مشاهده می باشد. نورویگ این نتایج را حاصل کیفیت داده ها و فرآیندهای تصمیم گیری می داند و همینطور اشاره می کند اگر انصاف بوسیله عدم آگاهی حاصل شود، همچنان مشکل باقی مانده است. به این معنا که اگر انصاف در عرضه نتایج، حاصل تلاش انسانی و دانشمندان نبوده و تنها به سبب کیفیت داده ها به دست آید، باز هم به صورت آگاهانه انصاف رعایت نشده است. بدین سبب برای اطمینان از صحت عملکرد آن این عمل باید بوسیله تلاش آگاهانه دانشمندان و مهندسان صورت گیرد که می تواند روند پیچیده ای داشته باشد. وی تاکید می کند: «هدف ما این است که مردم را متقاعد نماییم در این عرصه انصاف وجود دارد.» وی به توسعه دهندگان محصولات سفارش کرد که همواره به موارد زیر توجه داشته باشند: هنگامی که یکی از حضار در مورد میزان موفقیت شرکت های فناوری در کوشش برای کاهش تعصبات سؤال کرد، نورویگ می گوید که این فهرست به توسعه دهندگان کمک کرده است تا با آگاهی بیشتری در این مورد، کار را پیش ببرند. ما همینطور به اضافه کردن عوامل جدید ادامه می دهیم. در گذشته ما بر روی امنیت داده تمرکز داشتیم؛ اما حالا بر روی انصاف در عرضه محتوا هم متمرکز شده ایم. کار انسانی کار انسانی بخشی است که هنگام صحبت درباره هوش مصنوعی به آن اشاره ای نمی گردد. نادیده گرفتن جنبه کار انسان اغلب هنگام بحث در مورد هوش مصنوعی و اخلاق ممکنست حیرت انگیز باشد. اما مری گری انسان شناس در کتاب خود، درباره نیروی انسانی نامرئی صحبت می کند که برای پیاده سازی هوش مصنوعی به شکلی که امروزه شاهد آن هستیم، در تلاش است. گری تاکید می کند: از آن جا که این افراد تا حد زیادی کنترل نشده اند و نظارتی روی خود ندارند، به آسانی یک بارمصرف تلقی شده و اغلب بعنوان کمک موقتی در نظر گرفته می شوند. این افراد در حال کار بر روی وظایفی مانند برچسب گذاری داده ها بوده و جمعیت رو به رشدی از افراد عرضه دهنده خدمات را دربر می گیرند. اما گری این نوع کار را بعنوان کار شبح تعریف می کند. چونکه شرایط کار اغلب سبب کاهش ارزش کاری آنها و پنهان کردن افرادی می شود که به نتایج جستجوی بهتر در پروژه های دنیای استارت آپ کمک می کنند. گرچه ممکنست این چشم انداز در ابتدا دلهره آور به نظر برسد؛ اما گری بیان می کند که این مشاغل می توانند خصوصاً در زمان بحران بهداشت جهانی، مشابه وضعیت فعلی، ارزش کسب کنند. اما اقداماتی هم برای جلوگیری و توقف سوءاستفاده از آنها وجود دارد. وی تاکید کرد که هم اکنون هیچ قانونی وجود ندارد که کارگران قراردادی را اداره کند و خود مردم باید برای ایجاد چنین قانونی پافشاری کنند. وی اخطار داد: بازار قرار نیست این مشکل را برطرف کند. فناوری و انسان در ماه فوریه ۲۰۲۰، در یک کارگاه آموزشی که در واتیکان برگزار شد، پاپ فرانسیس گفت: کهکشان دیجیتال و خصوصاً هوش مصنوعی در قلب تغییرات تاریخی است که ما در حال تجربه آن هستیم. این نشان دهنده اهمیت فناوری هوش مصنوعی در زندگی امروز ماست. در حالت ایده آل، ما می خواهیم آنرا به اخلاقی ترین شکل ممکن پیاده سازی نماییم. اما حالا که پیچیدگی مساله انصاف در اجرای هوش مصنوعی و سایر مسائل عملیاتی پشت آنرا دیده ایم، زمان آن رسیده است که این سؤال بزرگ را بررسی کنیم: آیا فناوریِ تنها به اندازه انسان پشت آن خوب است؟ این ممکنست استدلال موجود درباب چاقو را به شما یادآوری کند: بعنوان یک ابزار نه بد است و نه خوب. ارزش آن به فردی که از آن استفاده می نماید و این که به چه دلیل از آن استفاده می نماید، بستگی دارد. آیا این بدین معناست که نگرانی های ما واقعی هستند؟ این که هوش مصنوعی چاقویی بیش نیست و فقط می توان امیدوار بود که به دست فرد اشتباهی نیفتد! نورویگ پیام امیدوارکننده ای دراین زمینه می دهد. زمانی که یکی از حضار این نگرانی را در ارتباط با مسائل اخلاقی در هوش مصنوعی بیان می کند، نورویگ به او یادآوری می کند که چرا انسان ها در وهله اول در حال توسعه فناوری هستند. او تاکید می کند: ما سیستمی را مدنظر قرار داده ایم که در آن، فناوری ها بتوانند بهتر از ما عمل کنند. به صورت کلی، پیشرفت فناوری برای همه به مفهوم زندگی بهتر است. هوش مصنوعی پتانسیل گسترده ای دارد و مسئولیت اجرای آن به عهده ما است تا سیستم هایی عرضه دهیم که توانایی رعایت اخلاقیات را مشابه بهترین حالت انسانی داشته باشند.


منبع:

1399/09/07
23:56:36
5.0 / 5
1274
تگهای خبر: امنیت , خدمات , دانشمند , دیجیتال
اگر مطلب را پسندیدید لایک کنید
(1)
(0)
تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این مطلب
نظر شما در مورد این مطلب
نام:
ایمیل:
نظر:
سوال:
= ۱ بعلاوه ۳
رمز من - Ramzeman
ramzeman.ir - حقوق مادی و معنوی سایت رمز من محفوظ است

رمز من

فناوری اطلاعات و امنیت