تدوین دستورالعمل اخلاقی برای هوش مصنوعی
سه سازمان استرالیایی روز پنجشنبه اعلام کردند که بنا دارند با مشارکت یکدیگر نسبت به راه اندازی «سازمان گرادینت» به عنوان یک نهاد غیرانتفاعی اقدام کنند. این سازمان ابعاد اخلاقی هوش مصنوعی را مورد پژوهش قرار خواهد داد.
فناوران- این سازمان با سرمایه گذاری مشترک سازمان تحقیقات علمی و صنعتی کشورهای مشترک المنافع، دانشگاه سیدنی و گروه بیمه گذار استرالیا تاسیس شده و مدیر اجرایی آن بیل سیمپسون یوانگ خواهد بود. سیمپسون معتقد است که آثار هوش مصنوعی این روزها در گوشه و کنار زندگی روزانه ما دیده شود. وقتی مردم از هوش مصنوعی حرف می زنند، اغلب درباره یادگیری ماشینی حرف می زنند. اما یادگیری ماشینی تنها یک کاربرد هوش مصنوعی است. با این حال، سیستم ها در خلال تجربه می آموزند و رشد می کنند، بی آنکه توسط کاربران انسانی برنامه ریزی شده باشند.
هوش مصنوعی این روزها هر لحظه در مقاله جدید و محصولی که به مصرف کننده توصیه می شود، به چشم می خورد. خیلی از شرکت ها از هوش مصنوعی برای فیلتر کردن نیروی متقاضی کار و خیلی از بانک ها از آن برای تصمیم گیری درباره نحوه وام دادن بهره می برند.
با در نظر گرفتن روند رو به رشد نفوذ هوش مصنوعی در همه جوامع، کارشناس بر این باورند که ایجاد دستورالعمل اخلاقی برای هوش مصنوعی ضروری به نظر می رسد. اهمیت این دستورالعمل ها این است که نوع بشر مجاب شود ماشینی شدن همه چیزها و رشد بی وقفه هوش مصنوعی در راستای منافع انسانی قرار دارد.
سیمپسون یوانگ می گوید: انسان ها هر روز تصمیم می گیرند و این تصمیم گیری های روزمره نیز بر بنیاد چارچوب اخلاق استوار است. ما هم اکنون در وضعیتی قرار گرفته ایم که این ماشین ها هستند که برای ما تصمیم می گیرند که روزانه باید چه خبری بخوانیم یا با چه کسی ملاقات کنیم. اما در حال حاضر هیچ چارچوب اخلاقی برای همین ماشین ها ترسیم نشده است.
از رسیدن به یک اجماع اخلاقی در این حوزه که بگذریم دانشمندان مسیر طولانی و دشواری برای تنها فرموله کردن دستورالعمل های اخلاقی و کدنویسی و برنامه نویسی و اجرای آن پیش رو دارند.
مایکل هار، استاد ارشد دانشگاه نیز می گوید: یکی از سوال های کلیدی پیش روی ما این است که چگونه به طور اخلاقی انسان باشیم. ما به واقع نمی دانیم چه پاسخی به این سوال بدهیم. حالا اینکه بخواهیم هوش مصنوعی برای همه این سوال ها پاسخی داشته باشد هم بسیار سخت است.
به گفته هار، گام نخست خلق مجموعه داده های بزرگ است از آنچه مردم از اخلاق انتظار دارند و گام بعدی می تواند شکل دادن به یک رویکرد باشد. هوش مصنوعی گفت وگوهای ما را کنترل می کند و در تلاش است تا بتواند به سوال هایی پاسخ دهد که ما به عنوان نوع بشر سال های سال دنبال پاسخی برای آن بوده ایم.
سازمان گرادینت بنا دارد تا داده های مختلفی از شاخه های علمی متنوع از حقوق و علوم انسانی گرفته تا مهندسی و تحلیلگران داده را جمع آوری کرده و سامان دهد.
استراتژی های استفاده از هوش مصنوعی
برای رفع نگرانی دنیا بابت سواستفاده های محتملی که به واسطه حضور پررنگ هوش مصنوعی در آینده وجود دارد، تنها در صورتی برطرف خواهد شد که کشورها قوانین و راهبردهای مناسبی برای به کارگیری این فناوری تصویب و تعیین کنند. برای نمونه در چین مرکزی برای تصویت و تدوین قوانینی در حوزه فناوری وجود دارد که وظیفه آن تعیین چهارچوب های عملی تکنولوژی است. موضوعات متعدد و متنوعی در حوزه فناوری و هوش مصنوعی وجود دارند که از نقطه نظر اخلاق قابل بررسی هستند.
برای مثال، حفظ حریم خصوصی به واسطه فناوری های تازه بیش از پیش حائز اهمیت خواهد شد. داده مهم ترین ابزار برای پیشبرد بهترین استارتاپ های فناوری و هوش مصنوعی است. در نتیجه شرکت های بزرگ برای رشد و توسعه فعالیت های خویش روی لبه باریکی راه می روند. لبه باریکی حفظ اخلاق و توسعه بیشتر در دو طرف آن قرار گرفته اند.
باید دید که کشورهای فعال در این زمینه چطور پایه و بنیان بهره مندی از هوش مصنوعی را پیش خواهند برد. برنامه هایی که چین برای شراکت و همکاری با سیلیکون ولی و سایر شرکت ها و استعدادهای مهم دنیا طراحی کرده است تا حد زیادی باعث امیدواری در این زمینه می شود اما آیا رقابتی که بر سر مزایای متعدد به کارگیری و رهبری هوش مصنوعی در جهان وجود دارد، اجازه تداوم دوستی ها و همکاری ها را به دولت های مختلف می دهد؟ باید همچنان صبر کرد. زیرا اقتصاد و سیاست همیشه بازی هایی پیش بینی نشده در آستین دارند. پیش بینی ها می تواند به وقوع نپیوندد. تنها نگاهی که می توان به آینده داشت، در نظر گرفتن سناریوهای مختلف برای پرهیز از غافل گیری است.
چین به عنوان یکی از پیشگامان هوش مصنوعی، در نظر دارد تا در زمینه هوش مصنوعی به برترین فناوری ها در زمینه تولید خودروهای هوشمند بپردازد و قرار است ارزش هوش مصنوعی در این زمینه تا سال ۲۰۳۰ به بیش از ۵۰۰ هزار میلیارد برسد. این ارقام و آمارها نشان می دهد که چین به زودی تبدیل به یکی از اثرگذارترین و مهم ترین کشورهای جهان در حوزه هوش مصنوعی خواهد شد. نکته بسیار مهمی که نباید از ذهن ها دور بماند، این است که هوش مصنوعی صرفا در زمینه فناوری و اقتصاد فعالیت نمی کند بلکه آنچه مهم تر است، عواقب آن در زمینه اخلاق و انسانیت است.
کنترل اوضاع اقتصادی و تجاری توسعه هوش مصنوعی در جهان از همین ابتدا در دست کشورهای چین، آمریکا و برخی سرزمین های اروپایی است اما در زمینه انسانیت و اخلاق، چه کسی کنترل اوضاع را بر عهده خواهد داشت؟ هوش مصنوعی جایگزین بسیاری از فعالیت های انسانی خواهد شد به همین دلیل باید پرسید که این جایگزینی در نهایت به جانشینی هم خواهد انجامید؟
پاسخ خوش بینانه و البته تا حد زیادی منطقی کارشناسان و اهل فن به این نگرانی ها بسیار جالب است: هر فناوری به ذات، خطرناک و بد نیست. آنچه باعث هراس از وجود یک فناوری می شود، شیوه به کارگیری و سیاست های پنهان پشت آن است. برای مثال اداره های تامین امنیت شهرها و کشورها می تواند به سادگی به ابزاری برای جاسوسی و سواستفاده بدل شود. انتخاب با بشر است.
آینده هوش مصنوعی
مکس تگمارک، فیزیکدان و کیهان شناس دانشگاه MITمعتقد است که باید عواقب مخفی ساخت هوش کاملا توانا را درنظر بگیریم. به اعتقاد تگمارک، هوش مصنوعی برای تخریب دنیا به شیطانی بودن یا قرار داشتن در حالت رباتیک خاص نیاز ندارد. در واقع، او مشکل اصلی هوش مصنوعی را اهداف خرابکارانه نمی داند و تنها، توانایی فراوان تفکر است که او را نگران می کند. هوش مصنوعی قوی در رسیدن به اهدافش بسیار خوب عمل می کند. مشکل وقتی ایجاد می شود که اهداف او با اهداف ما هم خوانی ندارد.
دن براون، نویسنده کتاب راز داوینچی، نیز اعتقاد دارد هوش مصنوعی روی عقیده ها و دیدگاه های انسان ها درباره خدا و دین هم تاثیرگذار خواهد بود. ایلان ماسک هم پیش از این گفته بود هوش مصنوعی بیش از حد قدرتمند گونه انسان را از بین خواهد برد.
سوزان اشنایدر، محقق دیگر این حوزه از دانشگاه کنتیکت معتقد است نوع بسیار پیشرفته ای از هوش مصنوعی هم اکنون نیز وجود دارد. به گفته او، این هوش مصنوعی از سال های بسیار دور وجود داشته است. اشنایدر در این باره می گوید: من معتقدم پیشرفته ترین جوامع بیگانه ساختار زیستی ندارد. در واقع، پیچیده ترین تمدن ها فراتر از خصوصیات ذاتی هستند و فرمی در شکل هوش مصنوعی یا ابرهوش بیگانه ای دارند.