ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

  عبارت مورد جستجو
تحلیل وضعیت فناوری اطلاعات در ایران

۴۸۶ مطلب با کلمه‌ی کلیدی «هوش مصنوعی» ثبت شده است

تحلیل


ناظر حریم خصوصی ژاپن به استارت آپ «اوپن ای آی»، سازنده هوش مصنوعی جی پی تی، هشدار داده تا داده های حساس مشتریان را بدون رضایت آنها جمع آوری نکند.

به گزارش خبرگزاری مهر به نقل از رویترز، کمیسیون حفاظت از اطلاعات خصوصی ژاپن در بیانیه ای اعلام کرد اوپن ای آی باید جمع آوری داده های حساس برای ماشین یادگیری را به حداقل برساند. همچنین این سازمان در صورتیکه نگرانی های بیشتری داشته باشد، اقدامات دیگری انجام خواهد داد.

رگولاتورهای سراسر جهان مشغول بررسی هستند تا قوانینی ناظر بر استفاده از هوش مصنوعی مولد را تصویب کنند. این نوع از فناوری می تواند متون و تصاویری بسازد که تاثیرگذاری آنها با ظهور اینترنت قابل مقایسه است.

هرچند به نظر می رسد ‌ژاپن از فناوری های اخیر عقب مانده، اما انگیزش بیشتری برای دستیابی به هوش مصنوعی و رباتیک دارد تا بتواند بهره وری را همزمان با کاهش محبوبیت خود حفظ کند.

این ناظر اعلام کرد باید میان نگرانی هایی درباره حریم خصوصی و مزایای هوش مصنوعی مولد ( ازجمله تسریع فناوری و دست و پنجه نرم کردن با مشکلاتی مانند تغییرات آب وهوایی)توازن برقرار شود.

طبق آمار شرکت Similarweb، ژاپن سومین منبع بزرگ ترافیک در وب سایت اوپن ای آی به حساب می آید. سم آلتمن مدیر ارشد اجرایی شرکت در آوریل و قبل از اجلاس G۷ با فومیو کیشیدا نخست وزیر ژاپن درباره گسترش هوش مصنوعی ملاقات کرد.

اتحادیه اروپا که درحوزه قانونگذاری فناوری پیشرو است، یک نیروی ضربتی در خصوص چت جی پی تی ایجاد کرده و مشغول نوشتن نخستین قوانین ناظر بر هوش مصنوعی است.

چینی‌ها ۷۹ مدل زبان بزرگ هوش مصنوعی ساختند

چهارشنبه, ۱۰ خرداد ۱۴۰۲، ۰۲:۵۴ ب.ظ | ۰ نظر

طبق گزارش موسسات تحقیقاتی دولتی، سازمان‌های چینی ۷۹ مدل زبان بزرگ (LLM) را در سه سال گذشته در این کشور راه‌اندازی کرده اند.
به گزارش خبرگزاری صدا و سیما به نقل از رویترز، طبق گزارش موسسات تحقیقاتی دولتی، سازمان‌های چینی ۷۹ مدل زبان بزرگ (LLM) را در سه سال گذشته در این کشور راه‌اندازی کردند، زیرا تلاش‌ها برای توسعه الگوریتم‌های هوش مصنوعی (AI) دو برابر شده است.

براساس گزارشی که توسط مؤسسات تحقیقاتی وزارت علوم و فناوری چین تهیه شده، توسعه مدل زبان بزرگ که با استفاده از تکنیک‌های یادگیری عمیق روی مقادیر انبوه داده‌های متنی آموزش داده شده‌اند، در سال ۲۰۲۰ وارد فاز شتاب‌یافته شد.

طبق گزارش منتشر شده در روز یکشنبه، در سال ۲۰۲۰، سازمان‌های چینی ۲ مدل زبان بزرگ منتشر کردند، در مقایسه با ۱۱ زبان در آمریکا، اما در سال ۲۰۲۱ در مجموع ۳۰ مدل زبان بزرگ در هر کشور منتشر شد.

بر اساس ارقام گردآوری شده در این گزارش، که موسسه اطلاعات علمی و فنی چین از جمله نویسندگان مشترک آن هستند، در سال بعد، سازمان‌های آمریکایی در مجموع ۳۷ مدل زبان بزرگدر سال بعد منتشر کردند، در حالی که ۲۸ مورد در چین منتشر شد.

تاکنون، چین با ۱۹ مدرک مدل زبان بزرگ از آمریکا پیشی گرفته است.

بر اساس بیانیه مطبوعاتی که به طور خلاصه در این گزارش آمده: با بررسی توزیع مدل‌های زبان بزرگ منتشر شده در سراسر جهان، چین و آمریکا با اختلاف زیادی پیشتاز هستند و بیش از ۸۰ درصد از تعداد کل جهان را تشکیل می‌دهند. آمریکا از نظر تعداد مدل‌های زبان بزرگ همیشه رتبه اول را در جهان داشته است.

این گزارش زمانی منتشر می‌شود که صنعت هوش مصنوعی چین با چالش‌های مهمی مواجه است، زیرا کنترل‌های صادراتی تحت رهبری آمریکا، سازمان‌های چینی را از دسترسی به نیمه‌رسانا‌هایی که برای آموزش مدل زبان بزرگ استفاده می‌شوند، محدود می‌کند.

این گزارش ۷۹ مدل زبان بزرگ توسعه یافته در چین را مورد تجزیه و تحلیل قرار داد و اشاره کرد که در حالی که در حال حاضر ۱۴ استان و منطقه وجود دارد که چنین فناوری در آن‌ها توسعه یافته، پروژه‌های توسعه مشترک بین دانشگاه و صنعت ناکافی بود.

پس از اینکه چت‌جی‌پی‌تی منتشر شد، غول‌های فناوری چینی، از علی بابا گرفته تا شرکت نظارتی Sensetime و غول موتور جستجو Baidu، نسخه‌های خود از چت‌بات‌های مجهز به هوش مصنوعی و مدل‎های زبانی بزرگ مولد را راه‌اندازی کردند.

تهدید ­انتخابات ۲۰۲۴ آمریکا با هوش مصنوعی

چهارشنبه, ۱۰ خرداد ۱۴۰۲، ۰۲:۵۱ ب.ظ | ۰ نظر

هوش مصنوعی روز به روز در حال پیشرفت است و اکنون رونق این فناوری با انتخابات آمریکا و تبلیغات آن مصادف شده و همین موضوع نگرانی‌هایی را به همراه دارد.
به گزارش خبرگزاری صدا و سیما  به نقل از رویترز، هیلاری کلینتون در ویدئویی که در شبکه‌های اجتماعی منتشر شده، می‌گوید­: من ران دیسانتیس را بسیار دوست دارم. او همان مردی است که این کشور به آن نیاز دارد.

به رقابت‌های ریاست‌جمهوری آمریکا در سال ۲۰۲۴ خوش آمدید، جایی که واقعیت قابل درک است.

ویدئو‌های دیپ‌فیک از کلینتون و بایدن، (ویدئو‌های واقع گرایانه و در عین حال ساختگی ایجاد شده توسط الگوریتم‌های هوش مصنوعی) ­از جمله هزاران ویدئویی هستند که در شبکه‌های اجتماعی منتشر می‌شوند و واقعیت و داستان را در دنیای دو قطبی شده سیاست آمریکا ادغام می‌کنند.

براساس مصاحبه‌های رویترز با دو نفر، در حالی که چنین ویدئو‌هایی چندین سال است که وجود دارد، در سال گذشته توسط تعدادی ابزار جدید هوش مصنوعی مولد مانند Midjourney توسعه داده شده­که ساخت دیپ‌فیک‌های باورپذیر­را ارزان و آسان می‌کند. ده‌ها متخصص در زمینه‌هایی از جمله هوش مصنوعی، اطلاعات غلط برخط و فعالیت‌های سیاسی فعالیت می‌کنند.

دارل وست، کارشناس ارشد بروکینگز­گفت: تشخیص محتوای واقعی از جعلی برای رای دهندگان بسیار دشوار خواهد بود. ­شما فقط می‌توانید تصور کنید که چگونه حامیان ترامپ یا بایدن می‌توانند از این فناوری برای بد جلوه دادن حریف استفاده کنند. ممکن است مواردی وجود داشته باشد که درست قبل از انتخابات از بین برود و هیچ کس فرصتی برای حذف آن‌ها نداشته باشد.

آزا راسکین، یکی از بنیانگذاران مرکز فناوری انسانی، یک سازمان غیرانتفاعی که تاثیر فناوری بر جامعه را مطالعه می‌کند، گفت: ابزار‌هایی که می‌توانند دیپ‌فیک تولید کنند با حفاظ‌های کم یا ناقص برای جلوگیری از انتشار اطلاعات غلط کار می‌کنند، زیرا بخش فناوری درگیر مسابقه تسلیحاتی هوش مصنوعی است.

دونالد ترامپ، رئیس‌جمهور سابق آمریکا ­که با دیسانتیس و دیگران برای نامزدی جمهوری‌خواهان برای رویارویی با بایدن رقابت خواهد کرد، خود اوایل این ماه ویدئویی از اندرسون کوپر مجری شبکه سی‌ان‌ان را در شبکه اجتماعی‌اش Truth Social به اشتراک گذاشت.

کوپر در این فیلم می‌گوید: دونالد جی. ترامپ­رئیس‌جمهور آمریکا بود که در تالار شهر ریاست‌جمهوری ما را به یک احمق تبدیل کرد.

اگرچه کلمات با حرکت لب‌های او مطابقت ندارند، سی ان ان گفت که این ویدئو یک دیپ‌فیک است. یکی از نمایندگان ترامپ به درخواست اظهار نظر درباره این کلیپ که این هفته هنوز در صفحه توئیتر پسرش دونالد ترامپ بوده، واکنشی نداد.

در حالی که شبکه‌های اجتماعی مانند فیس‌بوک، توئیتر و یوتیوب تلاش‌هایی را برای ممنوع کردن و حذف دیپ‌فیک انجام داده‌اند، اثربخشی آن‌ها در نظارت بر چنین محتوایی متفاوت است.

طبق گفته DeepMedia، شرکتی که روی ابزار‌هایی برای شناسایی محتوای جعلی کار می‌کند، امسال سه برابر بیشتر ویدئو‌های دیپ‌فیک از همه نوع و هشت برابر تعداد دیپ‌فیک ‌های صوتی برخط در مقایسه با مدت زمان مشابه در سال ۲۰۲۲ ارسال شده است.

این شرکت تخمین می‌زند که در مجموع، در سال ۲۰۲۳ حدود ۵۰۰ هزار ویدئوی دیپ‌فیک و صوت­در شبکه‌های اجتماعی در سراسر جهان به اشتراک گذاشته خواهد شد. شبیه سازی صدایی که قبلا ۱۰ هزار­دلار هزینه داشت تا اواخر سال گذشته هزینه داشت، اکنون استارتاپ‌ها اینکار را با هزینه‌ای چند دلاری انجام می‌دهند.

به گفته افراد حاضر در مصاحبه، هیچ کس مطمئن نیست که جاده هوش مصنوعی مولد به کجا می‌رسد یا چگونه می‌توان به طور موثر در برابر قدرت آن برای اطلاعات غلط جمعی محافظت کرد.

مدیرعامل شرکت اوپن‌ ای آی ­که در ماه‌های اخیر با معرفی چت‌جی‌پی‌تی و مدل به روز شده GPT-۴ بازی را تغییر داده، خود با این مشکل دست و پنجه نرم می‌کند. سام آلتمن، ­مدیرعامل این شرکت­به کنگره آمریکا گفت:­یکپارچگی انتخابات یک منطقه قابل توجه و نگران کننده­است. او خواستار قانونمند شدن این حوزه است.

برخلاف برخی از استارتاپ‌های کوچکتر، این شرکت اقداماتی را برای محدود کردن استفاده از محصولات خود در سیاست انجام داده با این حال خلا‌های قانونی وجود دارد.

برای مثال، اوپن‌ ای آی می‌گوید که تولیدکننده تصویر DALL-E خود را از ایجاد شخصیت‌های عمومی منع می‌کند. زمانی که رویترز تلاش کرد تصاویری از ترامپ و بایدن ایجاد کند، این درخواست مسدود شد و پیامی ظاهر شد که ممکن است از خط‌مشی محتوای ما پیروی نکند. با این حال رویترز توانست تصاویری از حداقل دوازده سیاستمدار دیگر آمریکا، ­از جمله مایک پنس، معاون رئیس جمهور سابق­که او نیز در حال ارزیابی نامزدی کاخ سفید برای سال ۲۰۲۴ است، ایجاد کند.

اوپن‌ ای آی­ همچنین هرگونه استفاده مقیاسی از محصولات خود را برای اهداف سیاسی محدود می‌کند. به عنوان مثال، استفاده از هوش مصنوعی برای ارسال ایمیل‌های شخصی‌سازی شده انبوه به مخاطبان ممنوع است. این شرکت که توسط مایکروسافت حمایت می‌شود، در مصاحبه‌ای با رویترز سیاست‌های خود را توضیح داد، اما به درخواست‌های بیشتر برای اظهارنظر درباره شکاف‌های اجرایی در سیاست‌هایش، مانند مسدود کردن ایجاد تصویر از سیاستمداران­پاسخی نداد.

چندین استارتاپ کوچکتر، اما هیچ محدودیت صریحی برای محتوای سیاسی ندارند. هوش مصنوعی مولد Midjourney که سال گذشته راه اندازی شد، با ۱۶ میلیون کاربر در سرور رسمی دیسکورد (Discord)، بازیگر پیشرو در تصاویر تولید شده توسط هوش مصنوعی است. به گفته چهار محقق هوش مصنوعی، این سیستم که بسته به عواملی مانند کمیت و سرعت تصویر از رایگان تا ۶۰ دلار در ماه متغیر است، مورد علاقه طراحان و هنرمندان هوش مصنوعی است، زیرا توانایی آن در تولید تصاویر فوق واقعی از افراد مشهور و سیاستمداران است. این سیستم به درخواست برای این مقاله پاسخ نداد.

دیوید هولز، مدیر عامل شرکت دیسکورد اعلام کرد:­این شرکت احتمالا­قبل از انتخابات تغییراتی را برای مبارزه با اطلاعات نادرست ایجاد خواهد کرد. هولز اضافه کرد که Midjourney می‌خواهد روی یک راه‌حل صنعتی همکاری کند تا قابلیت ردیابی تصاویر تولید شده توسط هوش مصنوعی را با معادل دیجیتالی واترمارکینگ فراهم کند و مسدود کردن تصاویر نامزد‌های سیاسی را در نظر بگیرد.

حتی در حالی که صنعت با جلوگیری از سواستفاده دست و پنجه نرم می‌کند، برخی از بازیگران سیاسی خودشان به دنبال استفاده از قدرت هوش مصنوعی مولد برای ایجاد پویش‌هایی هستند.

تاکنون، تنها آگهی سیاسی پرمخاطب تولید شده توسط هوش مصنوعی در آمریکا، یکی از آگهی‌هایی بود که کمیته ملی جمهوری‌خواه در اواخر آوریل منتشر کرد. این تبلیغ ۳۰ ثانیه‌ای که­ کاملا­توسط هوش مصنوعی ساخته شده، از تصاویر جعلی برای شبیه سازی سناریوی فاجعه‌آمیز در صورت انتخاب مجدد بایدن استفاده کرد.

رویترز همه پویش­های ریاست جمهوری جمهوریخواهان را در مورد استفاده آن‌ها از هوش مصنوعی بررسی کرد. اکثر آن‌ها پاسخی ندادند، اگرچه تیم نیکی هیلی گفت که از این فناوری استفاده نمی‌کنند و کمپین پری جانسون نامزد لانگ‌شات بدون ارائه جزئیات بیشتر، اعلام کرد که از هوش مصنوعی برای "تولید کپی و تکرار" استفاده می‌کند.

پتانسیل هوش مصنوعی مولد برای تولید ایمیل‌های تبلیغاتی، پست‌ها و تبلیغات برای برخی از فعالان که احساس می‌کنند فناوری ارزان‌قیمت می‌تواند زمینه بازی را در انتخابات مساوی کند، غیرقابل مقاومت است. حتی در اعماق مناطق روستایی هیلزدیل، میشیگان، هوش مصنوعی در حال عرض اندام است.

جان اسمیت، رئیس جمهوری خواه منطقه پنجم کنگره میشیگان، چندین جلسه آموزشی برگزار می‌کند تا متحدانش بتوانند استفاده از هوش مصنوعی در شبکه‌های اجتماعی و تولید تبلیغات را یاد بگیرند. او گفت: هوش مصنوعی به ما کمک می‌کند در مقابل بازیگران بزرگ بازی کنیم. من بزرگترین رشد را در نژاد‌های محلی می‌بینم. کسی که ۶۵ سال سن دارد، کشاورز و کمیسر ناحیه است، می‌تواند به راحتی توسط یک فرد جوانتر با استفاده از این فناوری مورد سواستفاده قرار گیرد.

مشاوران سیاسی همچنین به دنبال مهار هوش مصنوعی هستند و مرز بین واقعی و غیر واقعی را بیشتر از هم می‌پاشند. ویل لانگ، بنیانگذار در مصاحبه‌ای گفت: Numinar Analytics، یک شرکت داده‌های سیاسی که بر مشتریان جمهوری خواه تمرکز دارد، آزمایش تولید محتوای هوش مصنوعی برای صدا و تصویر و همچنین تولید صدا را برای ایجاد پیام‌های شخصی سازی شده با صدای نامزد‌ها آغاز کرده است.

گروه راهبرد و نظرسنجی دموکراتیک و گروه راهبرد هونان در حال تلاش برای توسعه یک ربات نظرسنجی هوش مصنوعی است. بردلی هونان، مدیرعامل شرکت، با استناد به تحقیقاتی که نشان می‌دهد زنان و مردان احتمال بیشتری برای صحبت با یک مصاحبه‌کننده زن دارند، گفت: امیدوار است که یک ربات زن به موقع برای انتخابات شهرداری ۲۰۲۳ معرفی شود.

تهدید هوش مصنوعی برای سیستم‌های نظامی

سه شنبه, ۹ خرداد ۱۴۰۲، ۰۲:۵۱ ب.ظ | ۰ نظر

جاش لوسپینیو طی مصاحبه ای با خبرگزاری آسوشیتدپرس، به بررسی هوش مصنوعی و آسیب پذیری های نرم افزاری در سیستم های تسلیحاتی به عنوان تهدیدی برای ارتش آمریکا می پردازد.
اولین استارت آپ امنیت سایبری جاش لوسپینوسو در سال 2017 توسط ریتون/فورس پوینت (Raytheon/Forcepoint) خریداری شد. دومین استارتاپ او، شیفت 5 (Shift5) نیز با ارتش ایالات متحده، اپراتورهای راه آهن و خطوط هوایی از جمله جت بلو (JetBlue) کار می کند. کاپیتان 36 ساله سابق ارتش، فارغ التحصیل سال 2009 وست پوینت و محقق رودز، بیش از یک دهه را صرف نوشتن ابزارهای هک برای آژانس امنیت ملی و فرماندهی سایبری ایالات متحده کرده است.
لوسپینوسو اخیراً به یک کمیته فرعی خدمات مسلح سنا گفته است که چگونه هوش مصنوعی می تواند به حفاظت از عملیات نظامی کمک کند. او که مدیر عامل و برنامه نویس نیز می باشد، این موضوع را با آسوشیتدپرس و همچنین چگونگی آسیب پذیری های نرم افزاری در سیستم های تسلیحاتی به عنوان یک تهدید بزرگ برای ارتش ایالات متحده را مورد بحث قرار داده است. متن مصاحبه برای وضوح بیشتر و به علت طولانی بودن، ویرایش شده است.

 

سوال: در شهادت خود، دو تهدید اصلی را برای فناوری های مجهز به هوش مصنوعی توصیف کردید: یکی سرقت و مورد دیگر مسمومیت داده است. می توانید آن را توضیح دهید؟
پاسخ: یکی از راه‌های فکر کردن در مورد مسمومیت داده‌ها، اطلاعات نادرست دیجیتالی است. اگر دشمنان بتوانند داده‌هایی را ایجاد کنند که فناوری‌های مجهز به هوش مصنوعی می‌بینند، می‌توانند عمیقاً بر نحوه عملکرد آن فناوری تأثیر بگذارند.

 

سوال: آیا مسمومیت داده اتفاق می افتد؟
پاسخ: ما آن را به طور گسترده نمی بینیم. اما رخ داده است. یکی از شناخته شده ترین موارد در سال 2016 اتفاق افتاد. مایکروسافت یک ربات چت توییتری به نام تای (Tay) منتشر کرد که از مکالمات آنلاین خود، مطالب را می آموزد. کاربران مخرب توطئه کردند تا توئیت های توهین آمیز را به آن نشان دهند. تای شروع به تولید محتوای ملتهب کرده و در نتیجه مایکروسافت آن را آفلاین کرد.

 

سوال: هوش مصنوعی فقط یک ربات برای چت نیست؛ بلکه مدت طولانی است که در امنیت سایبری یکپارچه بوده است، درست است؟
پاسخ: هوش مصنوعی در فیلترهای ایمیل برای پرچم گذاری و جداسازی نامه های ناخواسته و فریب های فیشینگ استفاده می شود. مثال دیگر نقاط پایانی است، مانند برنامه آنتی ویروس در لپ تاپ شما و یا نرم افزار شناسایی بدافزار که در شبکه ها اجرا می شود. البته، هکرهای مهاجم نیز از هوش مصنوعی برای شکست دادن این سیستم های طبقه بندی استفاده می کنند که به آن هوش مصنوعی متخاصم می گویند.

 

سوال: بیایید در مورد سیستم های نرم افزاری نظامی صحبت کنیم. یک گزارش نگران کننده در سال 2018 از دفتر پاسخگویی دولت می گوید که تقریباً تمام سیستم های تسلیحاتی جدید توسعه یافته دارای آسیب پذیری های حیاتی هستند و پنتاگون به فکر قرار دادن هوش مصنوعی در چنین سیستم هایی است؟
پاسخ: در اینجا دو مسئله وجود دارد. اول، ما باید سیستم های تسلیحاتی موجود را به اندازه کافی ایمن کنیم. این یک کار فنی است که ما باید آن را انجام دهیم و پرداختن به آن زمان بسیار زیادی طول خواهد کشید. سپس مرز جدیدی برای ایمن سازی الگوریتم های هوش مصنوعی به وجود بیاوریم که به کمک چیزهای جدیدی که ما نصب می کنیم، انجام خواهد شد. گزارش دفتر پاسخگویی دولت واقعاً در مورد هوش مصنوعی صحبت نمی کند. پس یک لحظه هوش مصنوعی را فراموش کنید. اگر این سیستم ها به همان شکلی که هستند باقی بمانند، هنوز هم عمیقا آسیب پذیر هستند.
ما در حال بحث در مورد افزودن قابلیت‌های مبتنی بر هوش مصنوعی برای مواردی مانند بهبود تعمیر و نگهداری و هوش عملیاتی هستیم. همه اینها عالی هستند اما زیربنای کار ما سست است. بسیاری از سیستم ها ده ها سال قدمت دارند و مجهز به فناوری های دیجیتال هستند. هواپیما، وسایل نقلیه زمینی، دارایی های فضایی و زیردریایی ها، اکنون به هم پیوسته اند. ما در حال مبادله داده ها در داخل و خارج هستیم. سیستم ها پر از راه برای نفوذ هستند، به سختی ارتقا می یابند و ممکن است مورد حمله قرار گیرند. هنگامی که یک مهاجم به چنین دسترسی پیدا کند، بازی تمام می شود.
گاهی اوقات ساختن یک پلتفرم جدید آسان تر از طراحی مجدد اجزای دیجیتال سیستم های موجود است. اما هوش مصنوعی نقشی اساسی در ایمن سازی این سیستم ها دارد. اگر کسی بخواهد آنها را به خطر بیندازد، می‌توان از هوش مصنوعی برای دفاع استفاده کرد.

 

سوال: شما شهادت دادید که توقف تحقیقات هوش مصنوعی، همانطور که برخی تاکید کرده اند، ایده بدی خواهد بود زیرا به نفع چین و سایر رقبا خواهد بود. اما شما همچنین نگرانی هایی در مورد هجوم بی درنگ به سمت محصولات هوش مصنوعی دارید. چرا؟
پاسخ: من متنفرم که این موضوع سرنوشت‌ساز به نظر برسد، اما به نظر می‌رسد که اینجا اصطلاح «استفاده از سوختن» صدق می‌کند. محصولی که با عجله به بازار عرضه می شود اغلب آتش می گیرد (هک می شود، از کار می افتد، آسیب ناخواسته وارد می کند) و ما می گوییم، «ما باید امنیت ایجاد می کردیم.» من انتظار دارم سرعت توسعه هوش مصنوعی افزایش یابد و ممکن است به اندازه کافی مکث نکنیم تا این کار را به روشی ایمن و مسئولانه انجام دهیم. حداقل کاخ سفید و کنگره در حال بحث در مورد این موضوعات هستند.

 

سوال: به نظر می رسد گروهی از شرکت ها از جمله در بخش دفاعی، عجله دارند تا محصولات نیمه کاره هوش مصنوعی را معرفی کنند.
پاسخ: هر شرکت فناوری و بسیاری از شرکت‌های غیرفناوری تقریباً یک چرخش محکم و سخت به سمت هوش مصنوعی انجام داده‌اند. نابسامانی های اقتصادی در راه است. مدل های کسب و کار اساساً تغییر خواهند کرد. جابجایی ها در حال حاضر اتفاق می افتد یا در شرف وقوع هستند و رهبران کسب و کار نمی توانند به سرعت واکنش نشان دهند.

 

سوال: در مورد استفاده از هوش مصنوعی در تصمیم گیری های نظامی مانند هدف گیری چطور؟
پاسخ: من به طور قطع فکر نمی کنم که الگوریتم های هوش مصنوعی و داده هایی که ما جمع آوری می کنیم برای تصمیم گیری یک سیستم سلاح کشنده آماده هستند. ما با آن فاصله داریم.(منبع:سایبربان)

کتاب « هوش مصنوعی و قانون گذاری » توسط مرکز پژوهش های مجلس منتشر شد.

به گزارش روابط عمومی مرکز پژوهش‌های مجلس شورای اسلامی، کتاب هوش مصنوعی و قانونگذاری با طرح این سوال که آیا هوش مصنوعی می‌تواند به جای هوش طبیعی قانون وضع کند؟ عنوان کرده است که هوش مصنوعی و کاربردهای آن در سیاست‌گذاری و حکمرانی یکی از موضوعاتی است که در سال‌های اخیر توجه سیاست‌‌پژوهان و پژوهشگران حوزه حکمرانی و قانون‌گذاری را به خود جلب کرده است.

در همین راستا موضوع هوش مصنوعی در سیاست‌گذاری و امکان‌سنجی وضع قانون توسط هوش مصنوعی یکی از موضوعات مورد توجه مرکز پژوهش‌‌های مجلس در سال‌های اخیر بوده است.

مرکز پژوهش‌های مجلس چند سیاست فکرستانی، فکرپژوهی و فکرسازی را همراه به مفهوم‌ستانی، مفهوم‌پژوهی و مفهوم‌سازی اصیل در دستور کار قرارداد که هم موجبات ارتقای تفکر کانونی و آینده‌نگری قانون و قانون‌گذاری را فراهم کرد و هم زمینه‌ساز بهره‌مندی از منطق هوش مصنوعی شده است. این سیاست‌ها با دو رویکرده فکری و منطقی دنبال شدند تا با توجسه معقول پذیرش منطقی در جامعه هوشی داشته باشند.

هوش مصنوعی امری ذهنی و ذهن ساخته است که این واقعیت نه در ذهن بلکه در سرای فیزیک ساکن شده است. با این فرض هوش مصنوعی نه هوش ماشینی که صورت‌بندی متفاوت از هوش انسانی است. این هوش در شرایط پیچیده شیوه استدلالی هوش طبیعی را با واکنش‌های مشابه برای حل مسائل اساسی انسان برعهده گرفته است.

با این نگاه هوش مصنوعی با سازه و ساختاری متفاوت ایجاد شد و شکلی معقول پیدا کرد. یکی هوش مصنوعی با منطق صوری شروع شد و به تدریج به منطق مگاری، منطق موجهات، منطق ریاضی، منطق فازی، فازی شهودی و منطق نوتروسوفیک انجامید. دیگر روند ابزارسازی هوش طبیعی با چرتکه، ماشین حساب آغاز شد و با کامپیوتر به توسعه شگرف دست یافته است.

بااین همه در سیاست هوشی هیچ یک از این تلاش ها به تنهایی یا تجمیع آنها برای هوش طبیعی کافی نبود و این هوش به دنبال ساخت هوش مشابه هوش انسانی رفت که کارکرد هوشی بدون قابلیت‌های متعدد هوش انسانی داشته باشد. ذهن طبیعی با پویش‌های مستمر هوشی به‌تدریج به  توفیقی دست یافت که حتی برای خودش غیرمترقبه بود و به همین دلیل با نگرانی از قدرت و نفوذ این هوش، قانون هوش مصنوعی را وضع کرد که در چهارسوی این قانون وضعی عمل کند.

این پژوهش هوش پژوهانه با سه نگاه تاریخی، توصیفی و تبیینی دنبال شد. در هر سه عرصه دغدغه دراصلی این بود که مطالعات تاریخی امری لازم است که باید از آن توصیف واقع بینانه انجام شود و هیچ موقع از تبیین عقلانی و منطقی بازنماند که توجیه معقولی به دنبال ندارد.

هوش مصنوعی قابلیت‌های منحصر‌به‌فرد خود را دارد که برخوردار از منطق و زبان محاسباتی با حداقل اشتباه است، اما در هرحال تحت سیطره هوش طبیعی قرار دارد. از سوی دیگر محاسباتی که این هوش انجام می‌دهد فراتر از قابلیت‌های هوش مصنوعی است که می‌تواند برای ارتقای امر قانون‌گذاری و توسعه منطق قانون‌گذاری در کشور مفید باشد.

کتاب « هوش مصنوعی و قانون‌گذاری » شامل مجموعه گزارش‌های مرتبط با نقش هوش مصنوعی در سیاست‌گذاری و وضع قوانین است که از سال 95 تا 98 توسط مرکز پژوهش‌های مجلس تدوین شده است.    
این کتاب که با هدف ارتقای هوش تقنینی و تدبیر امورکشوداری منتشر شده، در چهارفصل به رشته تحریر درآمده: در فصل اول به تفکر عقلانی در بنیاد هوش مصنوعی اشاره شده، فصل دوم به موضوع طراحی، تحقیق و به‌کار‌گیری هوش مصنوعی پرداخته، فصل سوم با محوریت اصل قانون‌گذاری و حکمرانی هوش مصنوعی نگارش شده و در فصل چهارم، قانون‌گذاری و هوش مصنوعی در چند کشور مختلف مورد بررسی قرار گرفته است.

یک وکیل با استفاده از چت بات جی پی تی خلاصه حقوقی درباره یک پرونده ارائه کرده که مشخص شده این ابزار، محتوایی بی پایه و اساس را در اختیار وی قرار داده است.

به گزارش خبرگزاری مهر به نقل از انگجت، در ماه های اخیر تب هوش مصنوعی بالا گرفته و بسیاری بیم آن دارند که برنامه هایی مانند چت جی پی تی یک روز آنها را بیکار کنند. اکنون به نظر می رسد این کابوس برای یک وکیل نیویورکی زودتر از موعد به حقیقت می پیوندد.

براساس گزارش نشریه نیویورک تایمز، استیون شواترز از شرکت حقوقی لویدو و اوبرمن اخیرا برای نوشتن یک خلاصه دعوی از چت بات «اوپن ای آی» کمک گرفته و نتایج آن فاجعه بار بوده است.

شرکت شوارتز از جانب روبروتو ماتا از شرکت هوایی کلمبیایی «آویانکا» شکایت کرده است. ماتا ادعا می کند در پروازی به فرودگاه جان اف کندی در نیویورک مجروح شده است. هنگامیکه شرکت از قاضی دادگاه فدرال خواست تا این پرونده را رد کند، وکیل ماتا یک خلاصه ۱۰ صفحه ای ارائه کرد تا نشان دهد چرا این شکایت باید در دادگاه مطرح شود.

در اسناد به بیش از ۱۲ مورد رای دادگاه از جمله «وارگس علیه هواپیمایی جنوب چین»، «مارتینز علیه دلتا ایرلاینز» و «میلر علیه یونایتد ایرلاینز» اشاره شده بود که متاسفانه هیچ یک از افرادی که خلاصه را خواندند نتوانستند رای های دادگاه ذکر شده توسط وکلای ماتا را در آن بیابند زیرا چت جی پی تی تمام این پرونده ها را خود ساخته بود!

شوارتز در سوگندنامه ای در روز پنجشنبه گفت که از چت بات برای کمک به تحقیقاتش درباره پرونده استفاده کرده است. او نوشته بود از احتمال آنکه محتوای چت جی پی تی ممکن است اشتباه باشد، بی اطلاع بوده است. او حتی اسکرین شات هایی را به اشتراک گذاشت که نشان می داد وی از چت جی پی تی سوال کرده آیا پرونده های ذکر شده واقعی هستند یا خیر و نرم افزار پاسخ داده بود آنها واقعی هستند و رای های دادگاه در مخازن حقوقی معتبر از جمله «Westlaw» و «LexisNexis»وجود دارد.

شوارتز همچنین نوشته بود برای استفاده از چت جی پی تی بسیار متاسف است و در آینده هیچ وقت بدون تاییدیه کامل از صحت مطالب نرم فزار از آن استفاده نمی کند. هنوز مشخص نیست او فرصت دیگری برای نوشتن یک خلاصه حقوقی دارد یا خیر. قاضی ناظر بر پرونده این وکیل اعلام کرد جلسه استماع در ۸ ژوئن برگزار می شود تا احتمال تحریم هایی برای شرایط بی سابقه ای که اقدامات شوارتز به وجود آورده مورد بحث قرار گیرد.

یک منبع آگاه از محدود شده کارمندان بانک جی‌پی مورگان در استفاده از چت‌جی‌پی‌تی خبر داد.
به گزارش خبرگزاری صداوسیما به نقل از وال استریت ژورنال، به گفته یک منبع آگاه، بانک جی‌پی مورگان چیس (JPMorgan Chase & Co) استفاده کارمندانش از استفاده از چت‌جی‌پی‌تی را محدود می‌کند. این شخص گفت که بانک استفاده از چت بات محبوب هوش مصنوعی را به دلیل یک حادثه خاصی محدود نکرده است. نمی‌توان تعیین کرد که چند کارمند از این چت بات یا برای چه عملکرد‌هایی از آن استفاده می‌کنند.

چت‌جی‌پی‌تی از زمانی که معرفی شد، محبوبیت بسیاری پیدا کرده و چند روز پس از راه اندازی تعداد کاربران آن از یک میلیون عبور کرد. مردم از این فناوری برای خودکارسازی وظایف در محل کار و مدرسه استفاده کرده‌اند. این فناوری این سوال را در مورد اینکه چگونه هوش مصنوعی می‌تواند جایگزین برخی از مشاغل شود، ایجاد کرده است. با این حال، چت‌جی‌پی‌تی همیشه قابل اعتماد نیست، زیرا گاهی اوقات به درخواست‌ها با اطلاعات نادرست یا پاسخ‌های اشتباه پاسخ می‌دهد.

علاوه بر بانک جی‌پی مورگان، سازمان‌های دیگر نیز دسترسی به چت‌جی‌پی‌تی را مسدود کرده اند. هفته گذشته، ورایزن استفاده از این چت بات را در سیستم‌های شرکتی خود منع کرد و گفت که ممکن است مالکیت اطلاعات مشتری یا کد منبعی را که کارمندانش در چت‌جی‌پی‌تی تایپ کرده اند از دست بدهد. مدارس دولتی نیویورک در ماه ژانویه، این چت بات را از شبکه‌های اینترنتی و دستگاه‌های مدرسه ممنوع کردند.

کارمندان برخی از شرکت‌ها از چت‌جی‌پی‌تی برای نوشتن ایمیل‌ها و موضوعات تحقیقاتی استفاده می‌کنند. برخی از کارمندان می‌گویند: این فناوری به آن‌ها کمک می‌کند تا سریعتر کار کنند. در حالی که برخی دیگر در تلاش هستند تا با پیشرفت فناوری از عقب ماندن خود جلوگیری کنند.

برخی از شرکت‌های فناوری پس از انتشار چت‌جی‌پی‌تی، برای عرضه محصولات مشابه رقابت کردند. در اوایل این ماه، گوگل یک سرویس هوش مصنوعی مکالمه با نام Bard را در اختیار آزمایش کنندگان قرار داد. شرکت مایکروسافت که میلیارد‌ها دلار در اوپن‌ ای آی سرمایه گذاری کرده، موتور جستجوی ارتقا یافته Bing را با استفاده از فناوری چت‌جی‌پی‌تی معرفی کرد. کاربران گزارش دادند که این موتور جستجو به سوالات با پاسخ‌های گاهی نگران کننده پاسخ می‌دهد.

اوپن‌ ای آی که مالک چت‌جی‌پی‌تی است، در اوایل این ماه گفت که نسخه پولی این چت بات راه‌اندازی می‌کند که با پرداخت ۲۰ دلار در ماه در دسترس مشترکان قرار خواهد گرفت.

شرکت سازنده چت جی پی تی جوایزی به مبلغ ۱۰۰ هزار دلار به افرادی اعطا می کند که ایده هایی برای نظارت بر هوش مصنوعی ارائه دهند.
به گزارش خبرگزاری مهر به نقل از رویترز، شرکت اوپن ای آی سازنده چت بات چت جی پی تی، اعلام کرد ۱۰ جایزه به مبلغ ۱۰۰ هزار دلار (در کل یک میلیون دلار) برای آزمایش هایی در حوزه فرایندهای دموکراتیک پرداخت می کند تا چگونگی نظارت بر هوش مصنوعی و بررسی تبعیض و چالش های دیگر مشخص شود.

طبق یک پست وبلاگی در این خصوص، جوایز ۱۰۰ هزار دلاری به دریافت کنندگانی تعلق می گیرد که چهارچوبی متقاعد کننده برای پاسخ به سوالات مختلفی دارند مانند آنکه آیا هوش مصنوعی می تواند از شخصیت های عمومی انتقاد کند و یک فرد معمولی در جهان چه ویژگی هایی دارد.

منتقدان مدعی هستند سیستم های هوش مصنوعی مانند چت جی پی تی به دلیل داده های ورودی شان، دچار تبعیض هستند. کاربران نمونه هایی از پاسخ های نژاد پرستانه یا جنسیت زده نرم افزار هوش مصنوعی را نیز رصد کرده اند. در این میان نگرانی هایی مبنی بر آن وجود دارد که هوش مصنوعی در موتور جستجوهایی مانند گوگل و بینگ( متعلق به مایکروسافت) اطلاعات نادرست را به شیوه ای متقاعد کننده تولید کند.

اوپن ای آی در همین راستا یکی از پیشروان قانونگذاری برای هوش مصنوعی است. با این وجود اخیرا تهدید کرده بود به دلیل قوانین پیشنهادی سختگیرانه اتحادیه اروپا در این خصوص، در منطقه مذکور فعالیت نخواهد کرد.

سازنده چت جی‌پی‌تی اروپا را تهدید کرد

شنبه, ۶ خرداد ۱۴۰۲، ۰۴:۵۳ ب.ظ | ۰ نظر

سم آلتمن مدیر اوپن آ آی تهدید کرده در صورتیکه اتحادیه اروپا قوانین زیادی وضع کند، در این منطقه فعالیت نخواهدکرد.
به گزارش خبرگزاری مهر به نقل از رویترز، سم آلتمن مدیر ارشد اجرایی اوپن آ آی از قانونگذاران سراسر جهان خواسته قوانین جدیدی برای نظارت بر فناوری وضع کنند. وی همچنین تهدید کرده در صورتیکه اتحادیه اروپا قوانین زیادی وضع کند، در این منطقه فعالیت نخواهد کرد.

آلتمن هفته گذشته در سراسر اروپا سفر کرد و با سیاستمداران در فرانسه، اسپانیا، لهستان، آلمان و انگلیس ملاقات کرد تا درباره آینده هوش مصنوعی و پیشرفت چت جی پی تی گفتگو کند.

بیش از ۶ ماه پس از آنکه اوپن آ آی «چت بات چت جی پی تی» را در جهان عرضه کرد، بیم ها درباره پتانسیل های آن به هیجان و هشدارهایی منجر شده و اختلافاتی میان قانونگذاران ایجاد کرده است.

اما آلتمن هفته گذشته به بروکسل، مکانی که رگولاتورها مشغول کار روی قانون هوش مصنوعی اتحادیه اروپا هستند، سفر نکرد. به گفته دو منبع آگاه آلتمن ملاقات برنامه ریزی شده در بروکسل را لغو کرده است. اوپن آ آی به درخواست ها برای اظهار نظر پاسخی نداده است.

آلتمن در لندن گفت: پیش نویس فعلی قانون هوش مصنوعی اتحادیه اروپا ممکن است بیش از حد باشد، اما ما شنیده ایم که احتمالا از آن عقب نشینی می کنند.

قانونگذاران اتحادیه اروپا مسئولیت شکل دهی قانون هوش مصنوعی هستند.دراگوس تودوراچه یکی از اعضای رومانیایی پارلمان اتحادیه اروپا که در تهیه پیش نویس قوانین اتحادیه اروپا پیشرو است، در این باره می گوید: به نظر من قوانین در آینده نزدیک کاهش نمی یابند. با این وجود ما خوشحال می شویم آلتمن را به پارلمان دعوت کنیم تا او بتواند نگرانی هایش از افکار قانونگذاران اتحادیه اروپا درباره این موضوعات را بیان کند.

از سوی دیگر تیری برتون کمیسر امورداخلی بازارهای اروپا از تهدید آلتمن انتقاد و اعلام کرد درباره پیش نویس قوانین نمی توان مذاکره کرد.

کیم وان اسپارنتاک عضو پارلمان اتحادیه اروپا از هلند نیز که روی پیش نویس قانون اتحادیه اروپا فعالیت می کند، گفت او وهمکارانش معتقدند نباید به شرکت های آمریکایی اجازه دهند از آنها اخاذی کنند.

او در ادامه افزود: اگر اوپن آ آی نتواند از الزامات اولیه نظارت بر داده، شفافیت، ایمن و امنیت اطلاعات پیروی کند، بنابراین سیستم های‌ آنها برای بازار اروپا مناسب نیست.

سردار «اسلامی» تشکیل کارگروه رصد، بررسی، تحلیل و مقابله با آسیب‌های فناوری‌های نوین و سایبری و به ویژه هوش مصنوعی را یک ضرورت دفاعی امنیتی برای کشور برشمرد.
سردار سرتیپ دوم پاسدار «ابوالفضل اسلامی» مدیرکل حفظ آثار و نشر ارزش‌های دفاع مقدس استان البرز در گفت‌وگو با خبرنگار دفاع‌پرس از البرز، تشکیل کارگروه یا سازمان شناسایی و مقابله با آسیب‌های هوش مصنوعی را یک ضرورت دفاعی، امنیتی برشمرد و اظهار داشت: برای مقابله با فتنه‌های نوین دشمن باید به ابزار‌ها و فناوری‌های روز دنیا اشراف داشته باشیم و برای مقابله با آن به سرعت و با دقت برنامه ریزی کنیم.

وی با اشاره به اینکه نباید درباره فناوری‌های نوین، چون متاورس، هوش مصنوعی و ... منفعلانه عمل کنیم، تصریح کرد: سرعت تولید و رشد دانش و فناوری در جهان امروز به شدت بالاست و اگر در این عرصه به سرعت عمل نکنیم به کشور ضربه وارد خواهد شد.

مدیرکل حفظ آثار و نشر ارزش‌های دفاع مقدس استان البرز با تاکید بر اینکه در مواجهه با شبکه‌ها و پیام رسان‌های اجتماعی و مدیریت فضای مجازی با اندکی تاخیر در کشور اقدام کردیم، افزود: در مواجهه با هوش مصنوعی تاخیر جایز نیست و به جای رویکرد منفعلانه، باید فعالانه نسبت به بومی سازی این فناوری در کشور اقدام شود.

وی همچنین خواستار اطلاع رسانی فوری و گسترده در جهت آسیب‌های این فناوری و امکان سوء استفاده از آن سخن گفت و تصریح کرد: با استفاده از هوش مصنوعی به ویژه پس از فراگیر شدن فناوری چت جی پی تی به راحتی می‌توان نسبت به شبیه سازی صدا و تصویر افراد اقدام کرد و این مسأله می‌تواند در جعل اخبار، دروغ پردازی و وارونه جلوه دادن حقایق بسیار موثر باشد.

 سردار اسلامی با بیان اینکه هوش مصنوعی می‌تواند میلیون‌ها کامت و محتوای رسانه‌ای در فضای مجازی منتشر کند، عنوان کرد: دشمنان از این ابزار و ربات‌های مجازی در اغتشاشات سال گذشته به شکل گسترده‌ای سوءاستفاده کرد. پیش از بروز یک فتنه یا اغتشاش جدید باید نسبت به آسیب‌های هوش مصنوعی در جامعه اطلاع رسانی شود تا دشمن به راحتی امکان سوء استفاده از این فناوری را نداشته باشد.

نیمه پنهان هوش مصنوعی

جمعه, ۵ خرداد ۱۴۰۲، ۰۴:۳۱ ب.ظ | ۰ نظر

مروری بر شاخص‌ترین نگرانی‌های کارشناسان در مورد توسعه سریع و شتاب‌زده هوش مصنوعی و تهدیدات بالقوه این فناوری، نشان می دهد که عواقب این فناوری اعتماد، اخلاق و دموکراسی را نشانه می گیرد.

به گزارش خبرنگار مهر، در بحبوحه شهرت و محبوبیت جهانی هوش مصنوعی مولد و رشد چشمگیر کاربران «ChatGPT»، در ماه فوریه ۲۰۲۳ بازوی تحقیقاتی وزارت دفاع ایالات متحده آمریکا اعلامیه‌ای منتشر کرد که براساس آن «یک ربات هوش مصنوعی با موفقیت یک جنگنده «F16» را در آسمان کالیفرنیای جنوبی به پرواز درآورد. این خبر توجه نسبتاً کمی را به خود جلب کرده و حقیقتی را فاش کرد که در هیاهوی موضوعات مربوط به هوش مصنوعی مولد گم شده است. رقابت بر سر توسعه هوش مصنوعی محدود به حوزه‌های فناوری، تجاری و بوروکراتیک نمی‌شود و حوزه مهم نظامی را هم در بر می‌گیرد. برخی نگرانی‌ها حاکی از آن است که رقابت شدید کشورها بر سر هوش مصنوعی احتمالاً به حوزه نظامی هم کشیده شده و جهان را در معرض مخاطراتی مانند جنگ سرد یا حتی جنگ جهانی قرار خواهد داد.

سوال مهمی که ممکن است برای هر شخص دغدغه‌مندی پیش بیاید این است که این فناوری جدید چه هشدارهایی را در بطن قابلیت‌های شگفت‌انگیز خود برای جهان انسان‌ها دارد؟

 

نگرانی‌های بسیار در یکی از بسترهای تولد هوش مصنوعی مولد

اخیراً بسیاری از شهروندان آمریکایی پس از ادعاهایی درمورد سوگیری و حمایت «ChatGPT» از دموکرات‌ها و عقاید آن‌ها احساس نگرانی می‌کنند. جمهوری‌خواهان در پاسخ به این ادعا چت‌بات مدافع جناح راست را وارد عرصه سیاست کردند. سازندگان مرورگر «TUSK»، چت‌باتی عرضه کرده‌اند که با دیدگاه محافظه‌کاران آمریکایی همسو است. این هوش مصنوعی مولد که «Gipper» نامیده می‌شود، عملکردی مشابه «ChatGPT» دارد، با این تفاوت که به نحوی کدگذاری شده که بتواند مانند یک محافظه‌کار عمل کند. تمامی این اتفاقات موید این موضوع است که هوش مصنوعی مولد که هم اکنون به منبع اطلاعات برای بسیاری تبدیل شده می‌تواند مواضع گروهی را ترویج کرده و موضع‌گیری‌های خاص خود را داشته باشد. این ابزار فناورانه قابلیت این را دارد که در حوزه رسانه به جنگ عقیده‌های مخالف سازندگان آن رفته و بجای منبع اطلاعات نسبتاً بی‌طرف، به خدمتگزار منافع سیاسی سرمایه‌گذاران و سازندگان آن تبدیل شود.

چندی پیش، جین ایسترلی، مدیر آژانس امنیت سایبری و امنیت زیر ساخت ایالات متحده آمریکا (CISA)، هشدار داد که هوش مصنوعی ممکن است به‌صورت توأمان، «قدرتمندترین قابلیت زمان ما» و «قوی‌ترین سلاح زمان ما» باشد.

ایسترلی معتقد است که مزایای هوش مصنوعی نیز همراه با تهدیداتی جدی است. ایسترلی تأکید کرد که هوش مصنوعی با تمام مزایایش ارزش به خطر انداختن امنیت را ندارد و باید تابع مقررات باشد.

او همچنین افزود: «درحالی‌که یک نفر از قابلیت‌های «ChatGPT» برای برگزاری یک مهمانی استفاده کرده فرد دیگری از قابلیت‌های آن برای برنامه‌ریزی یک حمله سایبری یا تروریستی استفاده می‌کند.»

یکی دیگر از نگرانی‌هایی که آمریکایی‌ها در مورد هوش مصنوعی دارند، امکان تأثیرگذاری آن در انتخابات ریاست‌جمهوری ۲۰۲۴ این کشور است. پیت ریتکس سناتور جمهوری‌خواه آمریکایی هشدار داد که چین می‌تواند با استفاده از هوش مصنوعی، نقش عمده‌ای در انتخابات ۲۰۲۴ ایفا کند. او در جلسه کمیته روابط خارجی سنا در مورداستفاده از هوش مصنوعی برای ایجاد تصاویر و ویدئوها جعلی مشابه افراد هشدار داد و راه‌حل این‌گونه بحران‌های احتمالی را آموزش مردم در حوزه رسانه و تقویت تفکر انتقادی دانست.

 

هوش مصنوعی اخلاق دارد؟

دانشمندانی که در سال‌های اخیر، تمامی هم خود را بر توسعه هوش مصنوعی گذاشته‌اند، بیشتر در پی ایجاد مخلوقی با توانایی‌های فکری انسان بوده‌اند؛ اما مسئله این است که انسان علاوه بر قدرت تفکر، وجدان هم دارد که باعث تلازم او به اخلاق می‌شود. ربات‌های مولدی مانند «ChatGPT» هنگام پاسخگویی بر مبنای کلان‌داده‌ها قائل به خوب و بد پاسخ‌های خود هستند؟ تعریفی از اخلاق دارند؟ در حال حاضر پاسخ این سؤال‌ها، منفی است.

طراحی سیستم‌های هوش مصنوعی اخلاق‌مدار با اصول اخلاقی مشترک بین انسان‌ها کار بسیار دشواری خواهد بود. کارشناسان اخلاق نگرانی‌هایی دارند که در صورت تلاش برای اخلاق‌مدار کردن هوش مصنوعی مولد زبانی، نظام‌های اخلاقی چه کسانی باید اعمال شوند؟ چه کسانی این تصمیم را می‌گیرند؟ چه کسی مسئول نظارت بر اخلاق‌مدار بودن هوش مصنوعی خواهد بود؟ چه کسی باید این نظام‌های اخلاقی را پس از تدوین، اجرا کند؟

واقعیت این است که رقابت ژئوپلیتیک و اقتصادی، محرک اصلی توسعه‌دهندگانی هوش مصنوعی است، درحالی‌که نگرانی‌های اخلاقی در جایگاه دوم قرار می‌گیرد. برخی از کارشناسان معتقدند که توسعه‌دهندگان هوش مصنوعی و ابزارهای مرتبط با آن در حالت خوش‌بینانه انگیزه کمی برای طراحی نظام‌های اخلاق‌مدار داشته و در حالت بدبینانه هیچ دغدغه‌ای ندارند!

بعضی دیگر نیز معتقدند تا وقتی مبنای تصمیمات هوش مصنوعی غیرقابل‌تشخیص باشد نمی‌توان مضرات هوش مصنوعی را شناسایی کرده و راه‌حل مناسبی برای آن یافت. باتوجه‌به اینکه پایگاه‌های داده‌های هوش مصنوعی در سیستم فعلی موجود است و مشکلات اخلاقی بسیار نظام حال حاضر، نمی‌توان انتظار معجزه و اهمیت‌دادن به اخلاق از این هوش مصنوعی داشت.

هوش مصنوعی مانند تمامی ابزارها می‌تواند برای «خوب یا بد» استفاده شود و بشر و سازندگان در نهایت کارکرد اصلی آن را مشخص می‌کنند. در نهایت هوش مصنوعی امتدادی از خودمان خواهد بود و تا جایی که بتوانیم و بخواهیم جامعه‌ای اخلاقی‌تر بسازیم هوش مصنوعی اخلاقی‌تری خواهیم داشت در غیر این صورت هوش مصنوعی پیامدهای بی‌اخلاقی بشر را با ذره‌بین قدرتمند خود چند برابر کرده و سر راه انسان قرار می‌دهد.

 

دست‌کاری ذهن انسان و نابودی دموکراسی

کارشناسان و محققان سر این مسئله که هوش مصنوعی نحوه کار و زندگی ما را تغییر خواهد داد اجماع دارند. همه تغییرات میزانی از ریسک را دارد، اما مقدار و طیف این ریسک بسیار مهم است. برخی معتقدند هوش مصنوعی می‌تواند تا جایی پیش برود که ذهن انسان را دستکاری کند.

بدبینانه‌ترین شکل ماجرا به‌دست‌آوردن قدرت و نابودی جهان است؛ اما حالت خوش‌بینانه آن ایجاد تصاویر نادرست، ویدئوهای نادرست است که در نهایت منجر به نابودی اعتماد می‌شود.

انسان در مواردی نمی‌تواند مطمئن باشد فلان سیاستمدار واقعاً این حرف را زده یا صدا و تصویر و متن و ویدئو ساخته هوش مصنوعی است. جسیکا سیسیل رئیس سابق دفتر بی‌بی‌سی و مؤسس «Trusted News Initiative» که با اطلاعات نادرست مبارزه می‌کند در مصاحبه با پرایم تایم گفت: «دموکراسی متکی بر این است که‌رای دهندگان بتوانند به اطلاعات واقعی دسترسی داشته و طبق بررسی و تحلیل ذهن خود آن را باور کرده یا نکنند و سپس گفتگویی مشترک پیرامون حقایق مورد توافق داشته باشند.» به‌عبارت‌دیگر هوش مصنوعی با ایجاد اطلاعات نادرست اعتماد مردم را از بین می‌برد و بدون اینکه افراد بدانند اطلاعاتی واقعی است یا نه نمی‌توانند بر اساس آن به فردی که واقعاً مدنظر آن‌هاست رأی دهند.

 

خالق هوش مصنوعی هشدار می‌دهد!

جفری هینتون که اخیراً از سمت خود به‌عنوان معاون مهندسی گوگل استعفا داد تا زنگ خطرات هوش مصنوعی را به صدا در آورد، در مصاحبه‌ای که اخیراً از او منتشر شد هشدار داد که جهان باید راهی برای کنترل این فناوری درحال‌توسعه پیدا کند!

«پدرخوانده هوش مصنوعی»، در گفته‌های خود ضمن تأکید بر تأثیرات مثبت هوش مصنوعی در پزشکی، علم مواد، پیش‌بینی زلزله و سیل و…، معتقد است که تمام این فواید اگر باعث پیشی‌گرفتن هوش مصنوعی بر بشر شود، نه‌تنها بی‌فایده که ویرانگر خواهد بود.

هینتون همچنین معتقد است بسیاری از همکاران وی که از باهوش‌ترند مانند او نگران هستند. هینتون خاطرنشان کرد که باتوجه به مدل‌هایی مانند «Chat GPT»، هوش مصنوعی ممکن است کارها را کارآمدتر از مغز انسان انجام دهد. او معتقد است که نمی‌توان مطمئن بود که اهداف هوش مصنوعی به نفع انسان و هم راستا با منافع او باشد.

او همچنین تأکید کرد که «ممکن است هیچ راهی برای جلوگیری از یک پایان بد نباشد؛ اما واضح است که انسان‌های باهوش و متخصص قادرند راهی برای مقابله با این چالش بیابند؛ اما این اتفاق باید قبل از اینکه هوش مصنوعی خیلی باهوش شود بیفتد!»

 

داعیه‌داران هوش مصنوعی

اگر داعیه‌داران هوش مصنوعی مولد را صاحبان شرکت‌های فناوری مانند «OpenAI»، شرکت توسعه‌دهنده «ChatGPT»، بدانیم، باتوجه به سابقه عملکرد آن‌ها در حوزه‌های دیگر می‌توان تشخیص داد که اولویت این شرکت‌ها منافع اقتصادی و رقابت با سایر شرکت‌هاست.

جهان در حال حاضر با بسیاری از مشکلات فناوری‌هایی که این قبیل شرکت‌ها توسعه داده‌اند؛ مانند نقض حریم شخصی کاربران، انتشار اخبار جعلی و اطلاعات نادرست و ارائه محتوای نامناسب به کودکان و نوجوانان، در فضای مجازی دست‌وپنجه نرم می‌کند و پر واضح است که مدیریت این شرکت‌ها آینده هوش مصنوعی و انسان را به مقصدی نامعلوم، با چالش‌هایی به‌مراتب بزرگ‌تر می‌برد.

اما اگر داعیه‌داران هوش مصنوعی را دولت‌هایی بدانیم که بستر شرکت‌های فناوری هستند می‌توانیم باتوجه به عملکرد سابق آن‌ها که مبتنی بر در نظر نگرفتن منافع کشورهای غیر همسو و در برخی از موارد همسو با آنان است، این احتمال را بدهیم که از این ابزار جهت افزایش سلطه خود بر سایر ملت‌ها و دولت‌ها و زیرسؤال‌بردن حاکمیت آن‌ها استفاده کنند.

نبرد مایکروسافت با گوگل در هوش مصنوعی

جمعه, ۵ خرداد ۱۴۰۲، ۰۳:۲۴ ب.ظ | ۰ نظر

مایکروسافت چت‌جی‌پی‌تی و بینگ را برای راه اندازی محصول گسترده هوش مصنوعی تقویت می‌کند.
به گزارش فارس به نقل از رویترز، شرکت مایکروسافت روز سه‌شنبه شروع به ارائه مجموعه‌ای از به‌روزرسانی‌های هوش مصنوعی، از جمله در چت‌جی‌پی‌تی، موتور جستجوی خود بینگ و همچنین سرویس‌های ابری در اختیار کاربران کرد. این شرکت با این کارها به دنبال کاهش فاصله با گوگل است.

از جمله تغییرات کلیدی، انتقال به خط نتایج جستجو از بینگ به چت‌جی‌پی‌تی است که پاسخ‌های آن در ابتدا محدود به اطلاعات از سال 2021 بود.

این شرکت در کنفرانس سالانه مایکروسافت بیلد اعلام کرد اکنون چت‌جی‌پی‌تی می تواند از نتایج وب بینگ برای مشترکین پولی استفاده کند و این کار را به زودی برای کاربران رایگان انجام خواهد داد.

مایکروسافت همچنین در حال گسترش به اصطلاح پلاگین ها برای بینگ است و با استفاده از استانداردی که توسط شرکت اپن‌ای‌آی پذیرفته شده، به کسب و کارها اجازه می دهد راحت تر با مصرف کنندگان در موتور جستجو معامله کنند.

یوسف مهدی، مدیر ارشد بازاریابی مایکروسافت، گفت:« برای مثال، یکی از این ابزارها به کسی که به دنبال ایده های شام با دستور غذا و مواد اولیه است کمک می کند تا با یک کلیک از Instacart سفارش بدهد.»

او در مصاحبه ای گفت: «این تغییری عمیق در نحوه استفاده مردم از وب است.»

مهدی در پاسخ به این سوال که آیا مایکروسافت می‌تواند آگهی‌های مربوط به پلاگین‌ها را بفروشد، گفت که این شرکت به آن نقطه نرسیده است، اما مدل نحوه جذب مشتریان در حال تغییر است.

به‌روزرسانی‌های بینگ بخشی از تلاش مایکروسافت برای تصاحب بیش از 286 میلیارد دلار بازار برای تبلیغات جستجو در سراسر جهان است.

گوگل نیز مانند مایکروسافت اخیراً ارتقاء هوش مصنوعی مولد را برای موتور جستجوی خود به نمایش گذاشته است که از داده‌های گذشته یاد می‌گیرد چگونه به سؤالات باز پاسخ دهد.

هنوز مشخص نیست که مصرف‌کنندگان موتور جستجوی به‌روز شده کدام را ترجیح می‌دهند، زیرا گوگل هنوز تغییرات خود را به طور گسترده ارائه نکرده است. با این حال، رقیب مستقل آن برای چت‌جی‌پی‌تی، یک ربات گفت و گو با نام بارد در حال حاضر شامل پاسخ هایی است که از نتایج جستجوی گوگل به دست می آید.

پیش از این بیل گیتس، یکی از بنیانگذاران مایکروسافت، اعلام کرده بود که هوش مصنوعی به قدری عمیق خواهد بود که رفتار کاربر را به شدت تغییر می‌دهد به‌طوری که دیگر سراغ موتور جستجو یا بازدید آمازون نرود.

دفتر رئیس جمهور فرانسه اعلام کرد او با سام آلتمن، مدیرعامل اوپن ای آی ملاقات خواهد کرد تا درباره جایگاه این شکور و اروپا در زمینه هوش مصنوعی (AI) صحبت کند.
به گزارش خبرگزاری صداوسیما به نقل از رویترز، دفتر امانوئل مکرون، رئیس جمهور فرانسه اعلام کرد او با سام آلتمن، تاجر سیلیکون، ولی که با چت‌جی‌پی‌تی به شهرت رسید، ملاقات خواهد کرد تا درباره جایگاه فرانسه و اروپا در رقابت جهانی برای هوش مصنوعی (AI) صحبت کند.

آلتمن، مدیر اجرایی اوپن‌ای آی که اخیراً به کنگره  آمریکا گفت: وقتی از خطر بالقوه هوش مصنوعی پرسیده شد، همه چیز ممکن است بسیار اشتباه پیش برود. هوش مصنوعی یکی از برجسته‌ترین سیستم‌های دنیای فناوری است که از دولت‌ها می‌خواهد تا به سرعت قوانینی را وضع کنند. هوش مصنوعی با مسئولیت پذیری استفاده می‌شود.

او در حال حاضر در سفری به برخی از پایتخت‌های اروپایی برای گفتگو با رهبران سیاسی است.

مکرون که مدافع سرسخت فرانسه به عنوان یک «ملت استارتاپ» بوده، دولت خود را موظف کرده تا شرایط سرمایه‌گذاری جذابی را برای کارآفرینان فناوری، از باتری‌های خودرو‌های الکترونیکی گرفته تا ارز‌های دیجیتال، فراهم کند. او در اولین سال ریاست جمهوری خود، متعهد شد که برای جلوگیری از عقب افتادن فرانسه و اروپا از غول‌های چینی و آمریکایی در زمینه فناوری‌های جدید قدرتمند مبارزه خواهد کرد.

پنج سال بعد، هیچ شرکت اروپایی در میان پیشتازان در زمینه هوش مصنوعی مولد که عمدتا توسط شرکت‌های آمریکایی از جمله اوپن‌ ای آی هستند، پیشگام نبود.

اتحادیه اروپا اما اکنون در خط مقدم پیش‌نویس قوانین جدید هوش مصنوعی است که می‌تواند معیاری جهانی برای رفع نگرانی‌های مربوط به حریم خصوصی و ایمنی مرتبط با این فناوری باشد.

الیزه اعلام کرد: آلتمن و مکرون همچنین درباره گام‌های بعدی در سفر او و مسائل اصلی آینده از جمله مقررات بحث خواهند کرد. آن‌ها در مورد مسائل مربوط به مقررات هوش مصنوعی بحث خواهند کرد که به تطبیق الزامات اخلاقی و حفاظت از کاربران و دموکراسی با پیگیری نوآوری در این بخش اجازه می‌دهد.

ماری-لور دنیس، رئیس سازمان نظارت بر حفاظت از داده‌های فرانسه (CNIL) روز سه شنبه در یک کنفرانس خبری گفت: چشم انداز موسسه او کاهش نوآوری نیست، بلکه همراهی با آن است.

در اوایل این ماه، مکرون از ایلان ماسک، بنیانگذار و مدیر عامل شرکت تسلا که در حوزه هوش مصنوعی نیز فعال است، دعوت کرد.

نگرانی کاخ سفید از خطرات هوش مصنوعی

چهارشنبه, ۳ خرداد ۱۴۰۲، ۰۶:۳۱ ب.ظ | ۰ نظر

کاخ سفید یک جلسه استماع با کارگران برگزار میکند تا تجربیات آنها از فرایند به کارگیری فناوری های خودکار توسط کارفرمایان شان برای نظارت، رصد و ارزیابی را دریابد.
به گزارش سایبربان و به نقل از خبرگزاری رویترز، در جلسه ای که کاخ سفید برگزار خواهد کرد ،علاوه بر کارگران، متخصصان فناوری، محققان و سیاستگذاران نیز شرکت خواهند کرد.

میلیونها کاربر از برنامه ها و ابزارهای هوش مصنوعی (AI) استفاده کرده اند که به گفته طرفداران، این فناوری میتواند در تشخیص های پزشکی، نوشتن فیلمنامه، ایجاد اسناد توجیهی و از بین بردن باگهای نرم افزاری به کاربران کمک نماید.از آن طرف نیز نگرانیهایی در مورد نقض حریم خصوصی، تصمیمات استخدامی نادرست و کلاهبرداری های متعدد و پخش اخبار جعلی وجود دارد.

دولت آمریکا به عنوان بخشی از ارزیابی این فناوری گام هایی جدیدی برداشته است: از جمله آپدیت یک نقشه راه جدید برای سرمایه گذاری در تحقیقات هوش مصنوعی، درخواست نظر مردم درباره ریسک های هوش مصنوعی همراه گزارش هایی جدید از وزارت آموزش درباره آنکه هوش مصنوعی چطور روی آموزش، یادگیری و تحقیق تاثیر میگذارد.

جلسه استماع و اقدامات جدید پس از جلسه ای برگزار میشود که رئیس جمهور جو بایدن در ماه جاری میلادی با مدیران ارشد شرکت های برتر هوش مصنوعی از جمله مایکروسافت و گوگل آلفابت برگزار کرد.
محور این جلسه نیاز به شفافیت شرکت ها در خصوص سیستم های هوش مصنوعی و اهمیت ارزیابی ایمنی هر محصول بود.
کاخ سفید قبلا اعلام کرده بود که رئیس جمهور جو بایدن نیز از این فناوری استفاده و آن را آزمایش نموده است.

مدت کوتاهی پس از اینکه بایدن اعلام کرد در انتخابات ریاست جمهوری آمریکا دوباره شرکت خواهد کرد، کمیته ملی جمهوری خواهان ویدیویی را تهیه کرد که در آن ،آمریکا تبدیل به یک کشور ویران در دوره دوم ریاست جمهوری بایدن شده است، که این ویدئو کاملا با تصاویر هوش مصنوعی ساخته شده بود.

انتظار میرود با گسترش فناوری هوش مصنوعی، چنین تبلیغات سیاسی نیز رواج پیدا کند.

سقوط ناگهانی بیت‌کوین تنها با یک عکس!

سه شنبه, ۲ خرداد ۱۴۰۲، ۰۳:۵۸ ب.ظ | ۰ نظر

بیت‌کوین، بزرگترین دارایی ارز دیجیتال جهان بر اساس ارزش بازار، پس از انتشار تصویری که انفجاری جعلی را در نزدیکی پنتاگون نشان می‌دهد و احتمالا با هوش مصنوعی (AI) ایجاد شده و در فضای مجازی منتشر شده است، سقوطی ناگهانی را تجربه کرد.

به گزارش ایسنا این تصویر هشداردهنده که ابرهای عظیم از دود تیره در نزدیکی ساختمان نمادین که به‌ عنوان مقر وزارت دفاع ایالات‌متحده (DOD) عمل می‌کند را نشان می‌دهد، به‌ طور گسترده توسط حساب‌های کاربری متعدد در سایت میکروبلاگینگ توییتر پخش شد.

از جمله کسانی که این تصویر را منتشر کردند، حساب توییتر رسانه دولتی روسیه، راشاتودی بود که بیش از سه میلیون دنبال کننده دارد. این تصویر همچنین توسط یک حساب کاربری تایید شده توییتر به نام BloombergFeed به اشتراک گذاشته شده است.

راشاتودی، توییت خود را که حاوی عکس مذکور بود حذف کرد در حالی که توییتر حساب BloombergFeed را تعلیق کرد.

اوایل روز دوشنبه تصویری که ظاهرا توسط هوش مصنوعی تولید شده بود انفجاری ساختگی را در نزدیکی پنتاگون ایالات‌متحده نشان داد. این خبر توسط رسانه دولتی روسیه، راشاتودی در توییتر به اشتراک گذاشته شد که به انتشار آن کمک کرد.

این تصویر ظاهرا حملات ۱۱ سپتامبر را به مردم یادآوری کرد و اعتماد سرمایه‌گذاران را تحت تاثیر قرار داد زیرا باعث فروش وحشتناک فوری همچنین زیان بیش از هفت درصدی داوجونز و افت ۴.۵ درصدی در بازگشت سرمایه بین‌المللی مورگان استنلی (MSCI) شد.

این تصویر که اداره آتش‌نشانی شهرستان آرلینگتون، جعلی بودن آن را چند دقیقه پس از انتشار آنلاین تایید کرد، تاثیر گسترده‌ای بر بازار سهام و ارزهای دیجیتال نداشت.

حساب توییتر رسمی آتش‌نشانی آرلینگتون و خدمات پزشکی اضطراری (EMS) تصریح کرد: «هیچ انفجار یا حادثه‌ای در یا نزدیک منطقه پنتاگون رخ نداده است و هیچ خطر یا خطر فوری برای مردم وجود ندارد».

این عکس حدود ساعت ۱۰ و ۶ دقیقه صبح روز دوشنبه به وقت شرقی در توییتر پخش شد و تنها چهار دقیقه بعد، در ساعت ۱۰ و ۱۰ دقیقه صبح، بازارها واکنش نشان دادند و شاهد روند نزولی بودند.

شاخص‌های سهام ایالات‌متحده آسیب جزئی را متحمل شدند اما پس از تایید مقامات مبنی بر جعلی بودن آن، به سرعت بهبود یافتند.

بیت‌کوین، اولین دارایی رمزنگاری جهان نیز دچار سقوط ناگهانی شد و با انتشار این عکس به ۲۶ هزار و ۵۰۰ دلار کاهش یافت با این حال، اولین ارز دیجیتال به سرعت افزایش یافت و چند دقیقه بعد به ۲۶ هزار و ۸۸۲ دلار معامله شد.

در حالی که تایید نشده است که تصویر منتشر شده با استفاده از ابزارهای هوش مصنوعی ایجاد شده است یا خیر اما دارای علائم بارز تصاویر تولید شده توسط هوش مصنوعی است.

تشدید نبرد چین و آمریکا در هوش مصنوعی

يكشنبه, ۳۱ ارديبهشت ۱۴۰۲، ۰۴:۱۴ ب.ظ | ۰ نظر

فناوری‌های جدید و نوآورانه مانند هوش مصنوعی اکنون به بستر مهمی برای رقابت سرسختانه میان چین و آمریکا تبدیل شده اند و در این مسیر، آمریکا با سلاح تحریم و چین با بومی سازی سعی در پیروزی دارد.

به گزارش خبرنگار مهر، رونمایی اخیر پکن و واشنگتن از طرح‌های عظیم سرمایه‌گذاری زیرساختی، مقدمه‌ای است برای تشدید روند رقابت بین ایالات متحده آمریکا و جمهوری خلق چین. این سرمایه‌گذاری‌های کلان همچنین شواهدی هستند بر تلاش این دو کشور برای خروج از شرایط اقتصادی چالش‌برانگیز. موفقیت هر کدام از آن‌ها موجب اثبات برتری نظام سیاسی اقتصادی و مقدمه‌ای بر تعمیق نفوذ جهانی این دو کشور در دهه‌های آینده است.

یکی از حوزه‌های مهمی که به بستری برای رقابت دو قدرت بزرگ تبدیل شده، فناوری‌های جدید و نوآورانه مانند هوش مصنوعی است. پیشرفت‌های سریع هوش مصنوعی‌های مولد مانند «ChatGPT» و برتری در آن‌ها به عقیده برخی کارشناسان باعث برتری اقتصادی و ژئوپلیتیک خواهد شد و در تعیین ابرقدرت قرن بیست و یکم بسیار مؤثر است. پکن برنامه‌های وسیعی برای استفاده از توانمندی‌های بالقوه این فناوری پر سود دارد و واشنگتن نیز در تلاش است تا از هوش مصنوعی در برنامه‌های زیرساختی آینده خود استفاده کند اما بیشتر تمرکز سرمایه‌گذاری خود را بر روی حوزه‌های فراگیر گذاشته و به نسبت چین اهمیت کمتری به حوزه هوش مصنوعی می‌دهد.

برخی از کارشناسان معتقدند که رقابت بر سر فناوری هوش مصنوعی به تشدید تنش بین آمریکا و چین منجر شده. به گفته تحلیل‌گران این رقابت سناریویی مشترک با جنگ سرد و رقابت‌های تسلیحاتی دارد. در ظاهر چت‌بات‌هایی مانند «ChatGPT» ممکن است شباهت زیادی با سلاح‌های خودمختار نداشته باشند؛ اما آن‌ها بر اساس ایده‌ای مشابه ساخته شده‌اند و این دلیل اهمیت استراتژیک آن‌هاست. به گفته جو وانگ مدیر ارشد سیاست خارجی در پروژه مطالعات رقابتی ویژه، «ChatGPT» قادر است روند انتشار تبلیغات متقاعدکننده در مقیاس گسترده و در خارج کشور را سهولت بخشد که این خود می‌تواند شروع بالقوه درگیری‌های بسیاری باشد.

 

چین؛ از خودکفایی در هوش مصنوعی تا نفوذ در اقتصاد

چین به نسبت ایالات متحده سرمایه‌گذاری بیشتری در حوزه هوش مصنوعی کرده و در صدد پیشرفت حداکثری این فناوری با تمرکز بر رفع خطرات و نقایص احتمالی برآمده است. به عقیده کارشناسان، یکی از اهداف مهم حزب کمونیست چین توسعه و پیشرفت هوش مصنوعی و در نتیجه تسریع رشد و توسعه اقتصادی است. بر اساس گزارش دانشگاه استنفورد، چین از نظر «سرزندگی هوش مصنوعی» در بین دو کشور اول جهان قرار دارد و یک‌سوم مقالات دانشگاهی این زمینه را تولید کرده و یک‌پنجم سرمایه خصوصی جهانی را برای توسعه آن جذب کرده است. طبق پیش‌بینی‌های مک‌کینزی، هوش مصنوعی می‌تواند تا سال ۲۰۳۰ حدود ۶۰۰ میلیارد دلار به اقتصاد چین اضافه کند که ۳۳۵ میلیارد دلارش را صنعت رانندگی خودران رقم خواهد زد.

اولین اقدام چین در رقابت با آمریکا ممنوعیت دسترسی به خدمات «ChatGPT» است و دولت بایدن در مقابل محدودیت‌ها و تحریم‌هایی را بر صادرات فناوری‌های مرتبط با هوش مصنوعی به چین تشدید کرده است. مدتی پس از معرفی نسخه چهارم «ChatGPT» غول موتور جستجوی چینی «Baidu» با یک چت‌بات هوش مصنوعی به نام «Erine Bot» وارد عمل شد. هر چند که این چت‌بات هنوز درحال‌توسعه است و امکانات آن کامل نشده و در دسترس عموم قرار ندارد؛ اما در رویداد معرفی، چت‌بات در درک زبان چینی، تولید محتوا و محاسبات ریاضی عملکردی مشابه «ChatGPT» داشت. شرکت بایدو در سال‌های اخیر تمرکز خود را به سمت هوش مصنوعی از جمله چت‌بات، رانندگی خودکار و سایر برنامه‌های کاربردی هوش مصنوعی تغییر داده است. علی‌رغم اینکه چت‌بات چینی رویداد معرفی فوق‌العاده‌ای نداشت، باتوجه‌به تکیه دولت چین بر خوداتکایی در فناوری، چین بازار خانگی پرجمعیت و مناسبی به نسبت ایالات متحده برای «Ernie BOT» دارد.

چین همچنین در حال تقویت قابلیت‌های هوشمند زیرساخت‌های حمل‌ونقل و جاده‌ای و سیستم ترافیک است. در خط راه‌آهن نیز چین با افزودن هوش مصنوعی به سیستم مدیریت، امکان عملکرد بهینه، تصادفات کمتر و صرفه‌جویی در مصرف برق را تا ۳۰ درصد فراهم کرده است.

 

آمریکا؛ وقتی امنیت با هوش مصنوعی گره می‌خورد

ایالات متحده نیز در این رقابت بیکار ننشسته، هوش مصنوعی به طور فزاینده‌ای با استراتژی ژئوپلیتیک ایالات متحده آمیخته شده است. پیشرفت چت‌بات‌هایی مثل «ChatGPT» می‌تواند در مقیاس بزرگ در سیاست‌های رسانه‌ای، انواع جدید حملات سایبری و رشد اقتصادی اثرگذار باشد. نکته‌ای که باعث توجه دوچندان دولت‌ها از جمله آمریکا به این‌گونه هوش مصنوعی‌های مولد شده، دسترسی عموم مردم به «ChatGPT» و «Bing» است.

جیک سالیوان، مشاور امنیت ملی دولت بایدن، تأکید کرده است که قابلیت‌های هوش مصنوعی اهمیت بسیاری برای کاخ سفید دارد. وی همچنین افزود: «برای ایالات متحده کافی نیست که در زمینه هوش مصنوعی از سایر کشورها جلوتر باشد، بلکه باید تا حد ممکن پیشتاز باشد.»
همکاری اخیر بین «Remark Holding» (هلدینگ حوزه هوش مصنوعی) و یکی از اپراتورهای قطار ایالت فلوریدا در پروژه استفاده از هوش مصنوعی برای جلوگیری از اختلال در شبکه ریلی «Brightline» شاهدی بر تلاش‌های آمریکا در این حوزه است. ایالات متحده در حال حاضر تمرکز خود را بر استقرار هوش مصنوعی در حوزه انرژی گذاشته و این اقدامات پیشرفت‌های بسیاری در زمینه‌های باتری‌سازی و مدیریت شبکه‌های برق رقم زده است.

این تلاش‌ها، موید درک رهبران ایالات متحده، باتوجه‌به افزایش تقاضا در حوزه‌های اینترنت اشیا و خودروهای الکترونیکی و همچنین چالش‌های مربوط به حوزه انرژی‌های تجدیدپذیر، از نقش هوش مصنوعی در امنیت شبکه است. استفاده از هوش مصنوعی برای مدیریت توزیع و پایداری جریان برق یکی دیگر از اولویت‌های آمریکاست. این روش، آزمایشش را سابقاً در چین پس داده و قادر است تنها در سه ثانیه مشکل قطعی برق را حل کند. علاوه بر این دولت بایدن سال گذشته بودجه پنج‌ساله ۸۱ میلیارددلاری را برای اجرای «قانون تراشه و علم» باهدف بازگرداندن تولید این محصول استراتژیک به آمریکا که کاربرد بسیاری در توسعه هوش مصنوعی دارد، در نظر گرفته است. افزایش بودجه یاد شده جهت حفظ برتری فناورانه آمریکا در مقابله با رقبای این کشور که در رأس آن‌ها کشور چین قرار دارد، صورت‌گرفته است. مسئله هوش مصنوعی برای آمریکا صرفاً فناوری و تجاری نیست.

به‌عبارت‌دیگر واشنگتن توسعه فناوری هوش مصنوعی و پیشی‌گرفتن از کشور چین در این حوزه را مسئله‌ای امنیتی دانسته و با تمرکز و حساسیت در این حوزه مدعی است که در پی حفظ امنیت ملی خود است.

پکن با اولویت‌دادن به هوش مصنوعی و سایر نوآوری‌های آینده‌نگر در برنامه‌های سرمایه‌گذاری خود، قصد دارد پایه‌های محکمی برای موفقیت خود در آینده که با منافع جهانی ایالات متحده در تضاد خواهد بود، ایجاد کند.

 

پایین کشیدن رقیب بجای بالارفتن...

دولت بایدن اخیراً اعلام کرده که در حال تدوین یک دستور اجرایی به‌منظور دورنگه داشتن سرمایه‌گذاری‌های بخش‌های مختلف فناوری مانند (نیمه‌هادی‌ها و محاسبات کوانتومی) و هوش مصنوعی از کشور چین است. در پی این اقدام چین آمریکا را به دنبال کردن «منافع خودخواهانه» به‌وسیله «اجبار اقتصادی» متهم کرد و هشدار داد که در مقابل این‌گونه اقدامات و «قلدری‌ها» که در تضاد با اصول اقتصاد بازار و رقابت منصفانه است، تماماً می‌ایستد.

سخنگوی وزارت امور خارجه چین در نشستی اخیراً ایالات متحده را به استفاده از تجارت به‌عنوان «ابزار و سلاحی به نام امنیت ملی» متهم کرد. واضح است که هر تلاشی از سوی کشورهای «G۷» برای ممانعت از سرمایه‌گذاری در فناوری‌های پیشرفته در چین باعث افزایش تنش‌های میان شی‌جی‌پینگ و جو بایدن می‌شود و ممکن است روابط همه‌جانبه دو کشور را دستخوش تقابل‌های مخاطره‌آمیز کند. این اقدام دولت بایدن، بخشی از تلاش‌های گسترده‌تری برای حفظ برتری تکنولوژیک آمریکا و حفاظت از منافع امنیت ملی است. بااین‌حال کارشناسان هشدار می‌دهند: «این اقدامات می‌تواند نتیجه عکس داده و باعث واگذاری قدرت به چین شده و یا به توسعه «دموکراتیک» هوش مصنوعی آسیب برساند. بهتر است ایالات متحده انرژی خود را صرف پیشرفت خود در حوزه هوش مصنوعی کرده تا اینکه از رشد رقیب جلوگیری کند.»

 

به‌کارگرفتن نیروهای ملی برای پیروزی در رقابت فناورانه

چین با وجود راهبرد واشنگتن مبنی بر مهار و کنترل فناوری چینی همه تلاش خود را در جهت مقابله و شکست آمریکا در حوزه فناوری به کار بسته است. به عقیده کارشناسان چین باتکیه بر تمامی منابع دولتی و بخش خصوصی و صرف مبالغ هنگفت برای تحقیق و توسعه، در حال مقابله با تشدید تحریم‌های ایالات متحده در حوزه‌های فناوری و محدودیت‌گذاری‌های سرمایه‌گذاری است و کلید موفقیت در این رقابت را خودکفایی در حوزه فناوری می‌داند. برای مثال دولت چین در سال ۲۰۲۲ چیزی حدود ۱۲ میلیارد یوان معادل ۱.۷۵ میلیارد دلار بودجه به صنعت نیمه‌هادی که یکی از صنایع پیش‌نیاز توسعه هوش مصنوعی محسوب می‌شود، اختصاص داده است.

بر اساس گمانه‌زنی‌ها این اقدام در جهت مقابله با تحریم‌های روزافزون ایالات متحده در صنعت تراشه است. کشور چین علاوه بر کمک به شرکت‌های بزرگ با درنظرگرفتن وام و تسهیلات برای شرکت‌های کوچک غیر بورسی تمام تلاش خود را در این رقابت به کار گرفته است.

پکن در پی تحریم‌های واشنگتن و جلوگیری از ورود تراشه‌های جدید به چین، این کشور را به سمت مطالعات بر روی توسعه هوش مصنوعی به‌وسیله تراشه‌های قدیمی سوق داده است. یکی دیگر از اقدامات چین در راستای خودکفایی در صنعت تراشه که پایه توسعه هوش مصنوعی و بسیاری از فناوری‌های جدید دیگر است، اختصاص بودجه به استان‌های مختلف با عنوان صندوق نیمه‌هادی است. فاز اول فعالیت این صندوق از زمان تأسیس در سال ۲۰۲۱ به ۳۱ میلیارد یوان رسیده و تاکنون در توسعه ۱۰۲ شرکت، سرمایه‌گذاری کرده تا به تسریع روند رشد فناوری در کشور یاد شده کمک کند.

حقیقت این است که رقابت چین و آمریکا به طور مداوم در حال گسترش به حوزه‌های گوناگون است. نبرد تجاری ترامپ با دولت چین و تعرفه‌گذاری دولت آمریکا بر محصولات تجاری این کشور، در طول زمان اندک اندک به حوزه حکمرانی پلتفرمی و محدودیت تیک‌تاک کشیده شد و سپس به حوزه فناوری تولید تراشه و هوش مصنوعی تسری یافت.

هوش مصنوعی در مقطع فعلی به حدی با معادلات بین‌الملل در آمیخته است که حتی سیاست‌مدارانی چون هنری کیسینجر، وزیر امور خارجه سابق ۹۹ ساله ایالات‌متحده آمریکا را نیز به اظهار نظر در مورد این فناوری واداشته است. وی سال گذشته طی سخنرانی در جریان یک اجلاس، از دولت‌های چین و آمریکا خواست تا مذاکره درباره اعمال برخی محدودیت‌های در این زمینه را آغاز کنند، زیرا بدون وجود برخی موانع و محدودیت‌ها، این روند به یک مسابقه دیوانه‌وار فناورانه برای تحقق یک فاجعه ختم می‌شود!

حقیقت این است که هنوز هیچ سقف و محدودیتی برای توان بالقوه هوش مصنوعی مشخص نشده است. در این میان، دیگر کشورهای جهان نیز با ارزیابی تهدیدات توسعه این فناوری از سوی دو قدرت بزرگ جهانی، تمرکز خود را بر توسعه هوش مصنوعی معطوف کرده‌اند. به عنوان مثال، ولادیمیر پوتین، رئیس جمهور روسیه، طی یک سخنرانی در سال ۲۰۱۷، در جمع دانشجویان گفت: «کسی که در این زمینه رهبر شود، حاکم جهان خواهد بود.»

علت ممنوعیت ChatGPT برای کارمندان اپل

يكشنبه, ۳۱ ارديبهشت ۱۴۰۲، ۰۴:۱۲ ب.ظ | ۰ نظر

اپل برای جلوگیری از نشت داده های محرمانه اش استفاده از چت جی پی تی توسط کارمندانش را محدود کرد.

به گزارش خبرگزاری مهر به نقل از انگجت، اپل به محافظه کاری درباره پروژه هایش و همچنین انتظار رازداری از کارمندانش مشهور است.

اکنون طبق گزارشی از نشریه وال استریت ژورنال شرکت فناوری مذکور نگران است با استفاده کارمندان از چت جی پی تی، داده های مالکیتی آن فاش شود. برای جلوگیری از این روند اپل به طور خاص استفاده از چت جی پی تی و دیگر ابزارهای هوش مصنوعی مانند Copilot (متعلق به شرکت گیت هاب که می تواند به طور خودکار رمز را تکمیل کند) را محدود کرده است.

از سوی دیگر گزارشها حاکی از آن است که اپل مشغول توسعه مدل های زبانی بزرگ مخصوص خود نیز است.

در اوایل آوریل ۲۰۲۳ میلادی نشریه «اکونومیست کره» در گزارشی نوشت ۳ کارمند یک شرکت تولیدکننده موبایل و دستگاه های الکترونیکی کره ای اطلاعات محرمانه را با چت جی پی تی به اشتراک گذاشته اند. ظاهرا یکی از کارمندان از چت بات خواسته بود مخزن کد منبع را برای وجود اشتباهات جستجو کند و کارمند دیگر خواستار بهبود کدها شده بود. کارمند سوم نیز یک جلسه ضبط شده را در چت بات آپلود کرده و از آن خواسته بود صورت جلسه را بنویسد.

هنوز مشخص نیست اپل چگونه استفاده از ابزارهای هوش مصنوعی مولد را محدود یا به طور کامل ممنوع می کند.

برای یک شرکت مرموز مانند اپل محدودیت استفاده از هوش مصنوعی تعجب برانگیز به نظر نمی رسد. از سوی دیگر اوپن آ آی سری تنظیمات کنترل حریم خصوصی جدیدی در آوریل ارائه کرده که به کاربران امکان می دهد تاریخچه چت خود را کنترل کنند تا محاورات آنها برای آموزش استفاده نشود.

در حال حاضر اطلاعات اندکی درباره پروژه های مدل های زبانی بزرگ وجود دارد.

توافق رهبران G۷ برای حکمرانی هوش مصنوعی

شنبه, ۳۰ ارديبهشت ۱۴۰۲، ۰۴:۵۹ ب.ظ | ۰ نظر

رهبران کشورهای گروه ۷ درباره نیاز به حکمرانی منطبق با ارزش ها در زمینه هوش مصنوعی مولد توافق کردند.
به گزارش خبرگزاری مهر به نقل از بلومبرگ، همچنین آنها بر نگرانی درباره پتانسیل مخرب فناوری های با سرعت در حال گسترش توافق کردند.

رهبران در بیانیه مشترک اجلاس G۷ اعلام کردند دولت ها تصمیم دارند در اقدامی موسوم به «فرایند هیروشیما» مذاکراتی در سطح کابینه درباره این مشکل انجام دهند و نتایج آن را تا پایان سال اعلام کنند.

فومیو کیشیدا، نخست وزیر ژاپن برای تضمین انسان محور و ایمن بودن هوش مصنوعی مولد، خواهان همکاری برای ایجاد یک جریان داده ایمن و برون مرزی و تعهد به کمک مالی به چنین اقدامی شد.

ژاپن به عنوان مدیر در سال جاری خواهان پشتیبانی برای استفاده عمومی و صنعتی هوش مصنوعی و همزمان نظارت بر ریسک های آن شد. نخست وزیر این کشور گفت: بسیار مهم است که با پتانسیل ها و ریسک ها به درستی برخورد کنیم.

هر چند کشورهای عضو این اجلاس درباره شیوه قانونمندسازی هوش مصنوعی با یکدیگر متفاوت عمل می کنند اما رهبران آن درباره ایجاد یک انجمن به نام « فرایند هوش مصنوعی هیروشیما»تا پایان سال توافق کردند تا درباره موضوعات هوش مصنوعی مانند حقوق کپی رایت و اخبار جعلی بحث کنند.

پس از آنکه چت جی پی تی شرکت «اوپن آ آی» رقابتی را میان شرکت ها ایجاد کرد تا فناوری را سریع تر توسعه دهند، درخواست هایی برای وضع مقرراتی که منعکس کننده نظرات رهبران صنعتی و دولت های سراسر جهان باشد، مطرح شد.

دولت ها بیم آن دارند که توسعه این فناوری که می تواند متونی مانند نوشته انسان و عکس و ویدئو بسازد، اگر بدون کنترل انجام شود، به گسترش یک ابزار قدرتمند برای تولید اخبار جعلی و اختلال سیاسی منجر می شود. سم آلتمن مدیر ارشد اجرایی اوپن آ آی نیز به همراه مدیر حریم خصوصی شرکت «بیزینس ماشین» از سناتورهای آمریکایی خواستند قوانین هوش مصنوعی بیشتری وضع کنند.

سازمان جهانی بهداشت نیز به طور جداگانه در بیانیه ای اعلام کرد استفاده از استفاده سریع از هوش مصنوعی به خطر خطاهای پزشکی را همراه دارد و احتمالاً اعتماد به این فناوری را از بین می‌برد و پذیرش آن را به تأخیر می‌اندازد.

ریشی سوناک نخست وزیر انگلیس نیز خواهان ایجاد سیاستی برای مدیریت ریسک و مزایای هوش مصنوعی شد و آلتمن و دیگران را به انگلیس دعوت کرد. در این میان اتحادیه اروپا در قانونمندسازی ابزارهای هوش مصنوعی یک گام به جلو برداشته و از شرکت ها خواسته تا تضمین کنند به کاربران اطلاع داده شود چه زمان با هوش مصنوعی ارتباط برقرار کرده اند و از این فناوری برای شناسایی افراد در اماکن عمومی استفاده نشود.

از سوی دیگر دولت ژاپن تمایل به نظارت بر هوش مصنوعی با دستورالعملی آسانگیرانه تر از قوانین اتحادیه اروپا دارد.

ChatGPT جایگزین رادیولوژیست‌ها می‌شود؟

شنبه, ۳۰ ارديبهشت ۱۴۰۲، ۰۳:۵۸ ب.ظ | ۰ نظر

پژوهشگران بیمارستان تورنتو در کانادا با آزمایش بر روی هوش مصنوعی ChatGPT دریافتند این چت بات میتواند به عنوان رادیولوژیست عمل نماید.
به گزارش سایبربان، پژوهشگران ،با آزمایش بر روی مدل هوش مصنوعی چت جی پی تی (ChatGPT)دریافتند که عملکرد آن قابل قبول میباشد اما برخی از اظهارات بدست آمده، غیرمنطقی و نادرست بنظر می‌رسد و هنوز آماده جایگزینی با رادیولوژیست‌ها نیست.
این چت‌بات در یک آزمون ۱۵۰ سوالی که توسط گروه‌های رادیولوژی در کانادا و ایالات متحده طراحی شده بود، ۸۱ درصد امتیاز کسب نمود که بسیار بالاتر از حداقل درصد قبولی(۷۰ درصد) بود.
با افزایش استفاده از چت جی پی تی (ChatGPT )در بخش‌های مختلف، پژوهشگران دانشگاه پزشکی تصویربرداری تورنتو نیز به این فکر افتادند که زمان آن رسیده است که توانایی‌های این چت‌بات را در رادیولوژی نیز آزمایش کنند.
پژوهشگران یک آزمون ۱۵۰ سوالی برای  چت جی پی تی (ChatGPT ) طراحی کردند، دقیقاً مانند آنچه که گروه‌های رادیولوژی در کانادا و ایالات متحده برای دانشجویان این رشته انجام می‌دهند. از آنجایی که این ربات هوش مصنوعی نمی‌تواند تصاویر را به عنوان ورودی پردازش کند، پژوهشگران فقط متن در سوالات قرار دادند که شامل سوالات پایه و مفهومی و سوالات تخصصی بود.
راجش بایانا، رادیولوژیست و سرپرست فناوری در بیمارستان تورنتو گفت: در ابتدا از پاسخ‌های دقیق و مطمئن چت جی پی تی (ChatGPT ) به برخی سؤالات چالش‌ برانگیز در مورد رادیولوژی حیرت زده شدیم، اما سپس به همان اندازه از اظهارات غیرمنطقی و نادرست آن به برخی دیگر از سوالات متعجب شدیم.

هوش مصنوعی این پتانسیل را دارد که به رادیولوژیست ها در کارشان کمک کند، اما بعید است که در آینده نزدیک جایگزین آنها شود. الگوریتم‌های هوش مصنوعی را می‌توان برای تجزیه و تحلیل تصاویر پزشکی و شناسایی ناهنجاری‌ها آموزش داد، که بتواند به رادیولوژیست‌ها در شناسایی سریع‌تر و دقیق‌تر مشکلات کمک کند. با این حال، تفسیر تصاویر پزشکی و انتخاب گزینه های درمانی مناسب نیاز به دانش و تخصص پزشکی بالایی دارد که به بهترین وجه توسط رادیولوژیست انسانی ارائه میشود.

توجه به این نکته مهم است که هوش مصنوعی باید به عنوان ابزاری برای تقویت کار رادیولوژیست ها به جای جایگزینی آنها استفاده شود. هوش مصنوعی می تواند به رادیولوژیست ها کمک کند تا در کار خود کارآمدتر و دقیق تر باشند، اما نمی تواند جایگزین قضاوت پزشکی و مهارت های تصمیم گیری یک رادیولوژیست آموزش دیده شود.

خالق ChatGPT در سنای آمریکا: مقررات وضع کنید

چهارشنبه, ۲۷ ارديبهشت ۱۴۰۲، ۰۲:۰۵ ب.ظ | ۰ نظر

«سم آلتمن» مدیر شرکت «اوپن ای‌آی» (Open AI) روز سه‌شنبه با حضور در یک کمیته فرعی قضایی در مجلس سنای آمریکا به منظور بررسی مخاطرات فناوری‌ نوین هوش مصنوعی، از قانونگذاران این کشور خواست که فناوری هوش مصنوعی را با مقررات خاصی نظام‌مند کنند.

به گزارش گروه علم و آموزش ایرنا ، آلتمن در آغاز سخنان خود گفت: ما بر این گمان هستیم که مداخلات قانونگذارانه و تنظیم‌کننده دولت‌ها برای کاهش خطرات مدل‌هایی که روز به روز قدرتمندتر می‌شوند حیاتی خواهد بود.

حضور آلتمن در سنای آمریکا در حالی است که ابزار «بات گفت‌وگوی» شرکت او موسوم به «چت‌جی‌پی‌تی» (ChatGPT) سر و صدای زیادی به پا کرده و موجب تشدید رقابت‌های حوزه فناوری در زمینه هوش مصنوعی شده است؛ برخی از قانونگذاران آمریکایی و مقامات کشورهای مختلف در خصوص خطرات ناشی از این فناوری ابراز نگرانی کرده‌اند.

بررسی مخاطرات هوش مصنوعی در جلسه سنای آمریکا با مدیر «اوپن ای‌آی»

«چت جی‌پی‌تی» و سایر برنامه‌های مشابه می‌توانند پاسخ‌های بسیار شبیه پاسخ‌های انسانی به پرسش‌های مختلف ارائه کنند که البته هنوز ممکن است تا حد زیادی نادرست باشند. آلتمن 38 ساله به نوعی به سخنگوی این صنعت نوظهور تبدیل شده است. او ابایی از پرداختن به مسائل اخلاقی مرتبط با هوش مصنوعی نداشته و خواستار قانونگذاری بیشتر در این زمینه شده است.

وی از سویی گفت که اهمیت این فناوری جدید می‌تواند به بزرگی و اهمیت ظهور «صنعت چاپ» بوده و نویدبخش آغاز عصر تولیدات جدید باشد، اما از سوی دیگر بر وجود خطرات بالقوه مرتبط با آن اذعان کرد.

آلتمن تاکید کرد: من واقعا بر این باور هستم که اعمال قواعد و مقرراتی در این زمینه کار عاقلانه‌ای است. مردم باید بدانند کجا با هوش مصنوعی سر و کار دارند و آیا محتوایی که در دسترس آنها قرار دارد، ممکن است با هوش مصنوعی تهیه شده باشد یا خیر.

در حالی که در چند ماه گذشته چندین مدل هوش مصنوعی وارد بازار شده‌اند، آلتمن خاطرنشان کرد که یک سازمان جدید باید برای ارائه پروانه کار شرکت‌های هوش مصنوعی تشکیل شود.

وی خاطرنشان کرد که چنین سازمانی باید مسئول تضمین تبعیت شرکت‌ها از معیارهای اخلاقی و پرداختن به نگرانی‌های مربوط به «صحت مطالب» مرتبط با فناوری هوش مصنوعی باشد.

 

صدای جعلی یک سناتور ، نمودی از خطرات هوش مصنوعی

سناتور «ریچارد بلومنتال» جلسه استماع روز سه‌شنبه را با پخش صدای ضبط شده جعلی از خودش آغاز کرد و با این کار ریسک‌ها و خطرات بالقوه ناشی از این فناوری را مورد تاکید قرار داد.

این صدای ضبط شده با استفاده از سخنرانی‌های واقعی بلومنتال در صحن سنا و یک متن نوشته شده توسط «چت جی‌پی‌تی» تهیه شده و استدلال می‌کرد که نمی‌توان اجازه داد که هوش مصنوعی بدون حساب و کتاب و مقررات خاص توسعه پیدا کند.

بررسی مخاطرات هوش مصنوعی در جلسه سنای آمریکا با مدیر «اوپن ای‌آی»

سناتور بلومنتال توضیح داد که هرچند «چت جی‌پی‌تی» بازتابی از دیدگاه‌های واقعی او تهیه کرده است، اما به همین سادگی می‌توان محتوای جعلی با مطالبی مغایر با دیدگاه‌های او در مورد مسائلی مانند اوکراین و روسیه تهیه کرد.

این درحالی است که در ماه های اخیر شمار فزاینده‌ای از شرکت‌ها ابزارهای جدید هوش مصنوعی را به خدمت گرفته‌اند که این تحول ظرفیت بالقوه ایجاد تغییراتی در زندگی روزمره انسانها را دارد. این ابزارها در عین حال با انتقادهایی از سوی افراد مشهوری در حوزه فناوری در ارتباط با توان بالقوه آن برای مختل کردن میلیون‌ها شغل، اشاعه اطلاعات نادرست و ترویج تعصبات و سوگیری‌ها رو به رو شده‌اند.

آلتمن آشکارا اذعان کرد که ظهور و گسترش هوش مصنوعی می‌تواند تاثیری منفی بر بازار کار داشته باشد و بطور بالقوه منجر به بیکاری گسترده در بخش‌های مختلف شود.

وی در عین حال گفت: هوش مصنوعی می‌تواند مشاغل جدیدی ایجاد کند و این مستلزم همکاری و مشارکت بین صنایع و دولت است، اما درباره اهمیت و جالب بودن شغل‌های آینده خوشبین هستم.

 

هشدار درباره وارد کردن آسیب‌های بزرگ به جهان

مدیر عامل شرکت «اوپن ای‌آی» در این جلسه همچنین نگرانی عمیق خود را درباره تهدیدات بالقوه ناشی از هوش مصنوعی علیه دموکراسی در جهان بخصوص به شکل کارزارهای هدفمند اطلاعات نادرست در جریان انتخابات ابراز داشت.

وی تصریح کرد: بزرگترین هراس من این است که ما – این حوزه، این فناوری و این صنعت – موجب وارد شدن صدمات جدی به جهان شویم. به گمان چنین آسیب‌هایی ممکن است به اشکال بسیار مختلفی وارد شود. آلتمن به منظور پرداختن به چنین نگرانی‌هایی پیشنهاد کرد که حسابرسی‌های مستقلی از شرکت‌هایی مانند شرکت «اوپن ای.‌ای» انجام شود.

بررسی مخاطرات هوش مصنوعی در جلسه سنای آمریکا با مدیر «اوپن ای‌آی»

آلتمن شب پیش از حضور در سنای آمریکا در ضیافت شام کاری با 60 تن از اعضای مجلس نمایندگان آمریکا شرکت کرد و با ارائه کاربردهای مختلفی از «چت جی‌پی‌تی» موجب سرگرمی نمایندگان مجلس آمریکا شد که به گفته یکی از حاضران در جلسه، قانونگذاران در این رویداد «بر جای خود میخکوب شده بودند و بسیاری از حاضران در جلسه اذعان داشتند که تنظیم مقررات مربوط به هوش مصنوعی ضروری خواهد بود.

 

مشابهت‌سازی از هوش مصنوعی با بمب اتمی

در بخشی از جلسه سنای آمریکا با مدیر عامل شرکت «اوپن ای آی»، سناتور حزب «جمهوریخواه» «جاش هاولی» ضمن اذعان به پتانسیل‌ها یا ظرفیت‌های بالقوه شگرف و متحول‌ساز هوش مصنوعی، مشابهت‌سازی هشداردهنده‌ای را با اختراع بمب اتمی مطرح کرد.

بررسی مخاطرات هوش مصنوعی در جلسه سنای آمریکا با مدیر «اوپن ای‌آی»

بلومنتال سناتور از حزب «دموکرات» نیز با تاکید براینکه آینده تحت استیلای هوش مصنوعی باید مطابق با ارزش‌های اجتماعی باشد، گفت: آینده تحت سلطه هوش مصنوعی الزاما آینده‌ای نیست که خواهان آن هستیم.

وی از کنگره آمریکا خواست که از نقایص و کاستی‌های گذشته از جمله ناکامی در تنظیم مقررات کافی در حوزه رسانه‌های اجتماعی درس بگیرد.

وی تاکید کرد: کنگره نتواست در خصوص رسانه‌های اجتماعی به موقع عمل کند و اکنون وظیفه داریم در زمینه هوش مصنوعی به موقع عمل کنیم؛ پیش از آنکه تهدیدات و خطرات واقعی شوند.

 

هشدار معاون «آی بی ام» درباره دوره جدید «بدو و بشکن» هوش مصنوعی

بررسی مخاطرات هوش مصنوعی در جلسه سنای آمریکا با مدیر «اوپن ای‌آی»

در جلسه سنای آمریکا همچنین «کریستینا مونتگومری» معاون شرکت «آی بی ام» نسبت به شروع دوره جدیدی از «بدو و بشکن» شعار قدیمی غول‌های «سیلیکون ولی» مانند شرکت «فیسبوک» هشدار داد.

وی تاکید کرد: دوران هوش مصنوعی نمی‌تواند دوره دیگری از «بدو و بشکن» باشد.

مونتگومری در عین حال گفت: از سوی دیگر نباید ترمز نوآوری‌ها را بکشیم.

هشدار سازمان بهداشت جهانی درباره چت ربات‌ها

سه شنبه, ۲۶ ارديبهشت ۱۴۰۲، ۰۶:۳۸ ب.ظ | ۰ نظر

سازمان بهداشت جهانی درباره استفاده از چت ربات‌های ایجاد شده توسط هوش مصنوعی هشدار داد و خواستار هوش مصنوعی ایمن و اخلاقی برای سلامتی شد.
به گزارش ایرنا سازمان بهداشت جهانی خواستار احتیاط در استفاده از ابزارهای مدل زبان بزرگ (LLM) تولید شده توسط هوش مصنوعی (AI) برای محافظت و ارتقای رفاه انسان، ایمنی و استقلال انسان و حفظ سلامت عمومی است.

ابزارهای مدل زبان بزرگ‌ها شامل برخی از پلتفرم‌های به سرعت در حال گسترش مانند ChatGPT، Bard، Bert و بسیاری دیگر هستند که درک، پردازش و تولید ارتباطات انسانی را تقلید می‌کنند. انتشار عمومی و استفاده آزمایشی رو به رشد آن‌ها برای مقاصد مرتبط با سلامت، هیجان قابل توجهی را در مورد پتانسیل حمایت از نیازهای بهداشتی مردم ایجاد می‌کند.

ضروری است که هنگام استفاده از ابزارهای مدل زبان بزرگ که به نام چت ربات‌های هوش مصنوعی شناخته می‌شوند، برای بهبود دسترسی به اطلاعات بهداشتی، به عنوان یک ابزار پشتیبانی تصمیم، یا حتی برای افزایش ظرفیت تشخیصی در محیط‌های کم منابع برای محافظت از سلامت مردم و کاهش نابرابری، خطرات به دقت بررسی شوند.

در حالی که سازمان بهداشت جهانی مشتاق استفاده مناسب از فناوری‌ها، از جمله چت با هوش مصنوعی، برای حمایت از متخصصان مراقبت‌های بهداشتی، بیماران، محققان و دانشمندان است، این نگرانی وجود دارد که احتیاط‌هایی که معمولاً برای هر فناوری جدید اعمال می‌شود، به طور مداوم در مورد ابزارهای مدل زبان بزرگ اعمال نمی‌شود. این شامل گسترش ارزش‌های کلیدی شفافیت، اخلاق مداری، مشارکت عمومی، نظارت متخصصان و ارزیابی دقیق است.

پذیرش سریع سیستم‌های آزمایش‌نشده می‌تواند منجر به اشتباهات کارکنان مراقبت‌های بهداشتی، آسیب رساندن به بیماران، کاهش اعتماد به هوش مصنوعی و در نتیجه تضعیف (یا تأخیر) مزایای بالقوه بلندمدت و استفاده از چنین فناوری‌هایی در سراسر جهان شود.

نگرانی‌هایی که مستلزم نظارت دقیق مورد نیاز برای استفاده از فناوری‌ها به روش‌های ایمن، مؤثر و اخلاقی هستند عبارتند از:

داده‌های مورد استفاده برای آموزش هوش مصنوعی ممکن است مغرضانه باشد و اطلاعات گمراه‌کننده یا نادرستی ایجاد کند که می‌تواند خطراتی برای سلامتی، برابری و فراگیر بودن ایجاد کند.

ابزارهای مدل زبان بزرگ‌ها پاسخ‌هایی را تولید می‌کنند که می‌توانند برای کاربر نهایی معتبر و قابل قبول به نظر برسند. با این حال، این پاسخ‌ها ممکن است کاملاً نادرست باشند یا حاوی خطاهای جدی باشند، به ویژه برای پاسخ‌های مرتبط با سلامت.

ممکن است ابزارهای مدل زبان بزرگ در مورد داده‌هایی که قبلاً برای چنین استفاده‌هایی رضایت ارائه نشده است آموزش ببینند و ممکن است از داده‌های حساس (از جمله داده‌های سلامت) که کاربر برای ایجاد پاسخ در اختیار یک برنامه کاربردی قرار می‌دهد، محافظت نکنند.

از چت بات ها می‌توان برای تولید و انتشار اطلاعات نادرست بسیار قانع کننده در قالب محتوای متنی، صوتی یا ویدئویی استفاده نادرست کرد که تشخیص آن برای عموم از محتوای سلامت قابل اعتماد دشوار است.

در حالی که بهداشت جهانی متعهد به استفاده از فناوری‌های جدید، از جمله هوش مصنوعی و سلامت دیجیتال برای بهبود سلامت انسان است، سازمان بهداشت جهانی توصیه می‌کند که سیاست‌گذاران از ایمنی و محافظت از بیمار اطمینان حاصل کنند، در حالی که شرکت‌های فناوری برای تجاری‌سازی ابزارهای مدل زبان بزرگ (چت بات های هوش مصنوعی) تلاش می‌کنند.

سازمان بهداشت جهانی پیشنهاد می‌کند که به این نگرانی‌ها رسیدگی شود، و شواهد واضحی از منافع قبل از استفاده گسترده از آنها در مراقبت‌های بهداشتی و پزشکی معمول، چه توسط افراد، چه ارائه‌دهندگان مراقبت‌ها یا مدیران سیستم سلامت و سیاست‌گذاران، اندازه‌گیری شود.

سازمان بهداشت جهانی بر اهمیت به کارگیری اصول اخلاقی و حکمرانی مناسب، همان‌طور که در راهنمای سازمان بهداشت جهانی، در مورد اخلاق و حکمرانی هوش مصنوعی برای سلامت، در هنگام طراحی، توسعه و استقرار هوش مصنوعی برای سلامت برشمرده شده است، تاکید می‌کند.

شش اصل اصلی شناسایی شده توسط سازمان بهداشت جهانی عبارتند از: (۱) حفاظت از خودمختاری. (۲) ارتقا رفاه انسان، ایمنی انسان، و منافع عمومی. (۳) شفافیت، توضیح پذیری و قابل فهم بودن را تضمین کند. (۴) مسئولیت پذیری و مسئولیت شناسی را تقویت کند. (۵) از فراگیری و برابری آن اطمینان حاصل شود. (۶) هوش مصنوعی پاسخگو و پایدار را ارتقا دهید.

روش شناسایی تصاویر ساختگی با هوش مصنوعی

سه شنبه, ۲۶ ارديبهشت ۱۴۰۲، ۰۳:۵۹ ب.ظ | ۰ نظر

گوگل به منظور کاهش انتشار اطلاعات نادرست، به ویژه اکنون که ابزارهای هوش مصنوعی ساخت تصاویر جعلی واقعی‌نما را راحت کرده اند، دو ابزار جدید به جستجوی تصویر خود اضافه می‌کند.
به گزارش ایسنا، نخستین ویژگی جدیدی که از سوی گوگل عرضه می‌شود، "درباره این تصویر" (About this image) نام دارد  که توضیح بیشتری مانند زمانی که یک تصویر یا تصاویر مشابه برای اولین بار توسط گوگل ایندکس شده اند، نخستین جایی که برای اولین بار در اینترنت ظاهر شدند و جای دیگری که به صورت آنلاین نمایش داده شدند را اضافه می‌کند. هدف از عرضه این ویژگی، این است که به کاربران کمک شود منبع اصلی تصویر را مشخص کنند و با هرگونه شواهد رد کردنی که ممکن است توسط سازمان‌های خبری ارائه شده باشد، تصویر را مورد بررسی قرار دهند.

گوگل هر تصویر تولید شده توسط هوش مصنوعی را که توسط ابزارهایش ایجاد شده است، علامت‌گذاری می‌کند و با پلتفرم‌ها و سرویس‌های دیگر همکاری خواهد کرد تا مطمئن شود که همان نشانه‌گذاری را به فایل‌هایی که منتشر می‌کنند، اضافه می‌کنند. میدجورنی و شاتراستاک، از جمله ناشرانی هستند که با گوگل همراهی می‌کنند و هدف این است که اطمینان حاصل شود همه محتوای هوش مصنوعی که در نتایج جستجو ظاهر می‌شوند، نشانه گذاری شده اند.

منشأ تصاویر آنلاین، مسئله‌ای است که در دوران هوش مصنوعی، اهمیت رو به رشدی پیدا کرده است و چندین استارتاپ مشغول تولید ابزارهای تایید و احراز هویت هستند. به عنوان مثال، شرکت تروپیک (Truepic Inc) که تحت حمایت مایکروسافت قرار دارد، سیستم‌هایی را عرضه می‌کند که تضمین می‌کنند تصویر از زمان ثبت تا انتشار، دستکاری نشده است.

بر اساس گزارش بلومبرگ، ویژگی‌های جدید گوگل که به تدریج در سال میلادی جاری عرضه می‌شوند، از فناوری نسبتا پایین‌تری برخوردار هستند، اما ممکن است با پشتیبانی کافی صنعت، اثرگذاری مثبت بیشتری داشته باشند.

اروپا پیشتاز تصویب قوانین هوش مصنوعی

يكشنبه, ۲۴ ارديبهشت ۱۴۰۲، ۰۵:۳۰ ب.ظ | ۰ نظر

بسیاری از دولت‌ها در جهان در حال رقابت برای تدوین قوانینی در زمینه هوش مصنوعی هستند؛ از جمله اتحادیه اروپا که روز پنجشنبه پیش‌نویس قانون اولیه هوش مصنوعی را تصویب کرد.

به گزارش خبرگزاری صداوسیما به گزارش نشریه آمریکایی سنتینل تریبون، کمیته پارلمان اروپا به پیشنهاد قانونی رأی داد که بخشی از تلاش چند ساله در راستای ایمنی استفاده از فناوری هوش مصنوعی است. 

این تلاش‌ها فوریت بیشتری پیدا کرده‌اند، زیرا پیشرفت‌های سریع چت‌بات‌هایی مانند «چت جی پی تی» مزایایی را که فناوری نوظهور می‌تواند به همراه داشته باشد و خطرات جدیدی که ایجاد می‌کند، برجسته می‌کند.

 

قوانین چگونه کار می‌کنند؟

قانون هوش مصنوعی که برای اولین بار در سال ۲۰۲۱ ارائه شد، بر هر محصول یا خدماتی که از سیستم هوش مصنوعی استفاده می‌کند، نظارت دارد. 

این قانون، سیستم‌های هوش مصنوعی را بر اساس چهار سطح خطر، از حداقل تا غیرقابل قبول طبقه‌بندی می‌کند. برنامه‌های پرخطرتر با الزامات سخت‌تری مواجه خواهند شد، از جمله شفاف‌تر بودن و استفاده از داده‌های دقیق. 

 

خطرات چیست؟

یکی از اهداف اصلی اتحادیه اروپا محافظت در برابر هرگونه تهدید هوش مصنوعی برای سلامت، ایمنی، حفاظت از حقوق و ارزش‌های اساسی است.

این بدان معناست که برخی از استفاده‌های هوش مصنوعی یک «نه» مطلق هستند، مانند سیستم‌های امتیاز اجتماعی که افراد را بر اساس رفتارشان قضاوت می‌کنند. 

هوش مصنوعی که از افراد آسیب‌پذیر از جمله کودکان بهره‌کشی می‌کند یا می‌تواند منجر به آسیب شود، ممنوع است.

قانونگذاران اروپایی استفاده از ابزار‌های پلیسیِ پیش‌بینی کننده محل وقوع جنایات و اینکه چه کسی مرتکب آن‌ها می‌شود را هم ممنوع کردند.

آن‌ها همچنین ممنوعیت گسترده‌ای را برای تشخیص چهره از راه دور تصویب کردند؛ به استثنای اجرای قانون مانند جلوگیری از یک تهدید تروریستی خاص. این فناوری رهگذران را اسکن می‌کند و از هوش مصنوعی برای تطبیق چهره آن‌ها با پایگاه داده استفاده می‌کند.

«براندو بنیفی» قانونگذار ایتالیایی که از مسئولان پیگیر تصویب قانون هوش مصنوعی در پارلمان اروپاست، به خبرنگاران گفت: هدف ما جلوگیری از ایجاد جامعه کنترل‌شده مبتنی بر هوش مصنوعی است. از این فناوری‌ها می‌توان در زمینه‌های مثبت و منفی استفاده کرد و به همین دلیل خطرات آن را بسیار زیاد می‌دانیم.

سیستم‌های هوش مصنوعیِ مورد استفاده در دسته‌های پرخطر مانند اشتغال و تحصیل که بر روند زندگی افراد تأثیر می‌گذارد، با الزامات سختی مانند شفاف بودن با کاربران، اعمال ارزیابی ریسک و اقدامات کاهشی مواجه هستند.

بازوی اجرایی اتحادیه اروپا می‌گوید که بیشتر سیستم‌های هوش مصنوعی، مانند بازی‌های ویدئویی در گروه کم‌خطر یا بدون خطر قرار می‌گیرند.

 

در مورد «چت جی پی تی» چطور؟

در پیشنهاد اولیه ۱۰۸ صفحه‌ای اروپا درباره هوش مصنوعی، به سختی از چت‌بات‌ها نام برده می‌شد به این شکل که صرفاً باید آن‌ها را برچسب‌گذاری کرد تا کاربران بدانند که در حال تعامل با یک ماشین هستند. مذاکره‌کنندگان بعداً مقرراتی را برای پوشش هوش مصنوعی عمومی مانند «چت جی پی تی» اضافه کردند و آن‌ها را در معرض برخی از الزامات مشابه سیستم‌های پرخطر قرار دادند. 

یکی از موارد کلیدی این است که باید به طور کامل هر گونه حق نسخه‌برداری را که برای آموزش سیستم‌های هوش مصنوعی استفاده می‌شود، مستندسازی کنید تا متن، تصویر، ویدئو یا موسیقی شبیه کار انسان تولید کنند. این به سازندگان محتوا اجازه می‌دهد بدانند که آیا از پست‌های وبلاگ، کتاب‌های دیجیتال، مقالات علمی یا آهنگ‌های پاپ آن‌ها برای آموزش الگوریتم‌هایی استفاده شده است که سیستم‌هایی مانند «چت جی پی تی» را تقویت می‌کنند. سپس آن‌ها می‌توانند تصمیم بگیرند که آیا کارشان کپی شده است یا خیر و به دنبال جبران خسارت باشند. 

 

چرا قوانین اتحادیه اروپا بسیار مهم است؟

اتحادیه اروپا بازیگر بزرگی در توسعه پیشرفته هوش مصنوعی نیست. این نقش را آمریکا و چین بر عهده دارند. اما بروکسل اغلب با مقرراتی که تمایل دارد به استاندارد‌های جهانی تبدیل شوند، نقش تعیین‌کننده‌ای را در این روند ایفا می‌کند.

بروکسل همچنین در تلاش است تا بازار را با ایجاد اعتماد در میان کاربران توسعه دهد.

به گفته «یوهان لاکس» کارشناس موسسه اینترنت آکسفورد، تفکر پشت قوانین درباره هوش مصنوعی این است که اگر بتوانید مردم را به اعتماد به هوش مصنوعی و برنامه‌های کاربردی ترغیب کنید، آن‌ها نیز بیشتر از آن استفاده خواهند کرد و زمانی که از آن بیشتر استفاده کنند، پتانسیل اقتصادی و اجتماعی هوش مصنوعی را افزایش خواهند داد.

 

اگر قوانین را زیر پا بگذارید چه؟

زیر پا گذاشتن قوانین در این حوزه منجر به جریمه‌هایی تا ۳۰ میلیون یورو (۳۳ میلیون دلار) یا ۶ درصد از درآمد جهانی سالانه یک شرکت می‌شود که در مورد شرکت‌های فناوری مانند گوگل و مایکروسافت می‌تواند به میلیارد‌ها دلار برسد.

 

بعد چه می‌شود؟

ممکن است سال‌ها طول بکشد تا قوانین به طور کامل اجرایی شوند. 

قانونگذاران اتحادیه اروپا قرار است در نشست عمومی در اواسط ژوئن (خردادماه) در مورد پیش‌نویس این قانون رأی‌گیری کنند. پارلمان اروپا سپس وارد مذاکرات سه‌جانبه‌ای می‌شود که شامل ۲۷ کشور عضو بلوک، پارلمان و کمیسیون اجرایی می‌شود؛ جایی که ممکن است این پیش‌نویس با تغییرات بیشتری در بحث جزئیات مواجه شود. 

انتظار می‌رود این پیش‌نویس تا پایان سال یا حداکثر تا اوایل سال ۲۰۲۴ تأیید نهایی شود و پس از آن یک دوره مهلت برای سازگاری شرکت‌ها و سازمان‌ها که اغلب حدود دو سال است، ارائه خواهد شد.

جنجال هوش مصنوعی در انتخابات ترکیه

يكشنبه, ۲۴ ارديبهشت ۱۴۰۲، ۰۵:۱۸ ب.ظ | ۰ نظر

کاربران ترک اینترنت وقتی متوجه شدند که کمال کلیچداراوغلو، رقیب اصلی رجب طیب اردوغان، رئیس‌جمهور ترکیه در انتخابات روز یکشنبه، در ویدئویی که ۲ هفته پیش در فضای مجازی منتشر شد، به‌صورت کامل انگلیسی صحبت می‌کند، شگفت‌زده شدند. اما ۲ روز بعد، وب سایت مستقل ترکیه‌ای به نام Teyit فاش کرد که این ویدئو ساختگی بوده است.
پیشرفت هوش مصنوعی غیرقابل کنترل است و حالا این فناوری قرار است تأثیر خود را در انتخابات سیاسی کشور‌ها به رخ بکشد. با این حال کارشناسان هوش مصنوعی می‌گویند محتوای گمراه‌کننده تولید شده توسط هوش مصنوعی می‌تواند رأی‌دهندگان را تحت‌تأثیر قرار دهد.

به گزارش همشهری آنلاین به نقل از یورونیوز، شاید انتخابات ریاست‌جمهوری ترکیه نخستین جایی باشد که این چالش خودش را نشان می‌دهد. کاربران ترک اینترنت وقتی متوجه شدند که کمال کلیچداراوغلو، رقیب اصلی رجب طیب اردوغان، رئیس‌جمهور ترکیه در انتخابات روز یکشنبه، در ویدئویی که ۲ هفته پیش در فضای مجازی منتشر شد، به‌صورت کامل انگلیسی صحبت می‌کند، شگفت‌زده شدند. اما ۲ روز بعد، وب سایت مستقل ترکیه‌ای به نام Teyit فاش کرد که این ویدئو ساختگی بوده است.

همچنین رقیب اردوغان اعلام کرده که ویدئوی پخش شده از محرم اینجه، نامزد دیگر انتخابات که مجبور به کناره‌گیری شد به‌وسیله هوش‌مصنوعی و فناوری دیپ‌فیک ساخته شده است.

ایالات متحده آمریکا نیز که خود را برای انتخابات ۲۰۲۴ ریاست‌جمهوری آماده می‌کند با این چالش روبه‌رو است.

حزب جمهوری‌خواهان از ویدئوی تولید شده توسط هوش مصنوعی برای انتقاد از جو بایدن استفاده کرده که نشان‌دهنده تأثیر این فناوری پیشرفته در سیاست است. پیشرفت‌های فناوری دیجیتال ابزار‌های جدید و سریع‌تری را برای پیام‌رسانی سیاسی فراهم می‌کند و می‌تواند تأثیر عمیقی بر نحوه نگاه رأی‌دهندگان، سیاستمداران و خبرنگاران به نامزد‌ها و مبارزات انتخاباتی داشته باشد. ما دیگر در مورد فتوشاپ عکس‌ها یا قرار دادن سر کسی روی بدن فرد دیگری صحبت نمی‌کنیم، بلکه در حال حرکت به سمت دورانی هستیم که ویدئو‌ها و تصاویری واقعی با هوش مصنوعی ساخته و منتشر می‌شود و توانایی مخاطب عام نیز برای تشخیص اصل یا جعلی بودن آن‌ها محدود است.

سیاستمداران می‌توانند از هوش مصنوعی مولد برای پاسخ فوری به تحولات استفاده کنند. این فناوری راه ارزانی برای ایجاد پاسخ‌های فوری بدون اتکا به مشاوران پردرآمد یا فیلمبرداران خبره است. این فناوری هدف‌گذاری بسیار دقیقی برای مخاطبان ایجاد می‌کند که در کمپین‌های سیاسی بسیار مهم است.

دانشگاه امیرکبیر هاب هوش مصنوعی کشور شد

يكشنبه, ۲۴ ارديبهشت ۱۴۰۲، ۰۳:۵۳ ب.ظ | ۰ نظر

معاون پژوهشی دانشگاه صنعتی امیرکبیر از انتخاب این دانشگاه به عنوان هاب کشور از طریق بعضی وزارت خانه‌ها در زمینه هوش مصنوعی خبر داد.
به گزارش روابط عمومی دانشگاه صنعتی امیرکبیر ، عامری شهرابی در مراسم اختتامیه هفتمین جشنواره هوش مصنوعی دانشگاه صنعتی امیرکبیر گفت: بیش از یک دهه از برگزاری این مسابقه می‌گذرد. هدف از این نوع مسابقات این است که دانشگاه علاوه بر ارتقای سطح علمی و پژوهش، رابطه خوبی با صنعت برقرار کند. رابطه‌ای که از رهگذر آن مشکلات صنعت را حل کنیم. اگر رابطه موثری بین دانشگاه و صنعت ایجاد شود، به رفاه عمومی و بهبود وضعیت کشور منتهی خواهد شد.

وی افزود: مشکلاتی در ارتباط بین دانشگاه و صنعت در گذشته وجود داشته است. ریشه برخی از این مشکلات به دانشگاه و برخی دیگر به صنعت برمی‌گردد. این مشکلات در کشور‌های دیگر هم وجود داشته است.

عامری با بیان این که مسابقه هوش مصنوعی بر اساس نیاز‌های صنعت شکل گرفته بطوری که عنوان هر مسابقه با نظر صنعت حامی مسابقه تعیین می‌شود. گفت: پژوهشگران همیشه گلایه داشتند که پژوهش‌های شان در کتابخانه‌ها خاک می‌خورد؛ اما امروز با برگزاری این نوع مسابقات پژوهش‌ها کاربردی می‌شوند. 

وی گفت: در این راستا، سعی بر آن است پایان نامه‌ها را نیز به سمت حل مشکلات صنعت ببریم که قطعا صنعت هم حمایت خواهد کرد. با مذاکراتی که با شرکت فولاد مبارکه اصفهان داشتیم آن‌ها پذیرفتند که از پایین نامه‌های مرتبط با صنعت فولاد حمایت‌های خوبی داشته باشند. به طوری که، هر پژوهشی مرتبط با فولاد مبارکه انجام شود، از ۳۰ تا ۷۰ میلیون تومان از پایان‌نامه‌اش حمایت مالی می‌شود. همچنین هر کدام از طرح‌هایی که بتواند به طرح کلان برسد، از حمایت ۱۰۰ میلیون تومانی بهره‌مند می‌شوند. کسانی که در مسابقه برنده شدند یا نشدند هم می‌توانند از این حمایت استفاده کنند با این شرط که یکی از استادان دانشگاه صنعتی امیرکبیر مسئولیت آن طرح را بپذیرد. 

معاون پژوهشی دانشگاه صنعتی امیرکبیر تصریح کرد: اتاق بازرگانی هم اعلام کرده است که از پایان‌نامه‌های دانشجویان این دانشگاه حمایت خواهد کرد. هم راستا کردن پایان‌نامه‌ها با مشکلات کشور یکی از برنامه‌های مهم معاونت پژوهشی دانشگاه صنعتی امیرکبیر است. بازدید از واحد‌های صنعتی هم یکی دیگر از اقدامات معاونت پژوهشی جهت آشنایی اساتید و دانشجویان با صنعت است. بعضی از شرکت‌ها هزینه‌های رفت و آمد و اسکان دانشجویان و استادان را به عهده گرفته‌اند تا پژوهش‌های دانشگاهی در راستای نیاز‌های آن شرکت هدایت شود.

وی تاکید کرد: کمک هزینه پژوهش حداقل ۶۶ میلیون تومانی برای استادان جوان در راستای ارتباط بهتر با صنعت درنظر گرفته شده است. 

معاون پژوهشی دانشگاه صنعتی امیرکبیر گفت: هدف مسابقه این است که ارتباط خوبی بین دانشگاه و صنعت ایجاد کند. به همین دلیل، با تمام توان در این زمینه تلاش خواهیم کرد. 

عامری با اشاره به این که از صنایع درخواست می‌کنم به تقویت این ارتباط ادامه دهند، یادآور شد: برخی وزارتخانه‌ها دانشگاه صنعتی امیرکبیر را به عنوان هاب هوش مصنوعی کشور انتخاب کردند و اعلام کردند که هر دانشگاهی در کشور قصد دارد در زمینه هوش مصنوعی مرتبط با وزراتخانه مربوطه فعالیت کند، باید از طریق دانشگاه صنعتی امیرکبیر اقدام کند. چرا که ظرفیت‌های بسیار خوبی در این دانشگاه وجود دارد.

معاون پژوهشی دانشگاه صنعتی امیرکبیر افزود: هم‌اکنون پروژه‌های بسیاری در دانشگاه صنعتی امیرکبیر در حال انجام است که در همکاری با هوشمند سازی صنایع شکل گرفته است. 

وی یادآور شد: هوشمندسازی یکی از اهداف اصلی دانشگاه صنعتی امیرکبیر است و ریاست دانشگاه بار‌ها این بر این ماموریت تاکید داشتند. در این زمینه پتانسیل بالایی در دانشگاه وجود دارد. به جرات می‌توان گفت همه دانشکده‌های این دانشگاه، هم‌اکنون در موضوع هوشمندسازی فعالیت دارند. برای مثال در دانشکده نفت، موضوع هوشمندسازی چاه‌های نفتی بیش از یک دهه است نه تنها تدریس می‌شود بلکه پایان نامه‌ها و مقالات متعددی نیز منتشر کرده است. دانشکده‌های مثل مهندسی برق، مکانیک، شیمی و ... که مدتهاست در این زمینه فعالند؛ لذا به نظر من این مسابقه می‌تواند در سطح دانشگاه نیز برگزار شود.

عامری تاکید کرد: این دانشگاه جامع‌ترین و کامل‌ترین دانشگاه صنعتی کشور است. چرا که دانشکده‌های متنوع فنی نظیر مهندسی پزشکی، پلیمر، پتروشیمی را بطور انحصاری دارد و بقیه رشته‌های رایج را نیز به طریق اولی دارد؛ لذا از تمام صنایع برای ارتباط بیشتر با این دانشگاه دعوت می‌کنیم و امیدواریم دانشگاه و صنعت در کنار هم بتوانند مشکلات کشور را یر طرف کنند.

هوش مصنوعی هر دقیقه یک کتاب می‌خواند

يكشنبه, ۲۴ ارديبهشت ۱۴۰۲، ۰۳:۵۰ ب.ظ | ۰ نظر

شرکت آنتروپیک با ارتقای مدل هوش مصنوعی Claude مدعی شده است که این مدل اکنون حافظه بزرگ‌تری نسبت به GPT-4 دارد.
به گزارش خبرگزاری صدا و سیما؛ شرکت آنتروپیک اعلام کرد: قدرت پردازش داده توسط هوش مصنوعی مولد خود، یعنی Claude را به‌طرز قابل‌توجهی افزایش داده است. این مدل از محدودیت پردازش ۹ هزار توکن حالا به ۱۰۰ هزار توکن رسیده است.

به عبارت دیگر این هوش مصنوعی می‌تواند رمانی مثل «فرانکشتاین» اثر «ماری شلی» را در کمتر از یک دقیقه بخواند و اطلاعات آن را تحلیل کند. استارتاپ هوش مصنوعی آنتروپیک که توسط مهندسان سابق OpenAI تأسیس شده حافظه مدل زبانی Claude خود را ارتقا داده است تا این نرم‌افزار بتواند در هر نشست حدود ۷۵ هزار کلمه را پردازش کند.

براساس توضیحاتی که در وبلاگ این استارتاپ ارائه شده است، Claude می‌تواند در یک جلسه به‌طور کامل کتاب «گتسبی بزرگ» را مطالعه و پردازش کند. در آزمایشی که برای بررسی این قابلیت انجام شده است، آن‌ها یک جمله را در داخل این کتاب تغییر دادند تا عملکرد هوش مصنوعی را در تشخیص این تغییر امتحان کنند.

نتیجه این بود که Claude در ۲۲ ثانیه موفق به تشخیص این تغییر شد. مدل‌های هوش مصنوعی اطلاعات را نه براساس تعداد حروف یا کلمات، بلکه با کمک توکن‌ها ارزیابی می‌کنند. این روش منطقی‌تر است، چون کلمات می‌توانند بلند یا کوتاه باشند و اندازه‌شان لزوماً ارتباط مستقیمی با پیچیدگی معنایی آن‌ها ندارد.

همان‌طور که گفتیم، حافظه Claude اکنون به ۱۰۰ هزار توکن رسیده است، درحالی‌که مدلی مثل GPT-۴ در حالت عادی ۸ هزار توکن را پردازش می‌کند و نسخه‌ای از آن می‌تواند تا ۳۲ هزار توکن را پردازش کند. این ظرفیت بالا در مدل Claude درحال‌حاضر فقط برای شرکای تجاری انتروپیک در دسترس است.

همچنین گفته نشده که هزینه استفاده از این مدل چقدر بیشتر از مدل قبلی این شرکت است. آنتروپیک می‌گوید برای یک انسان حدود پنج ساعت طول می‌کشد تا بتواند ۷۵ هزار کلمه را بخواند. بااین‌حساب، هوش مصنوعی می‌تواند از یک جهت دیگر برتر از انسان‌ها عمل کند و قابلیت‌های متنوعی داشته باشد.

بحران جهانی هوش مصنوعی

شنبه, ۲۳ ارديبهشت ۱۴۰۲، ۰۷:۴۶ ب.ظ | ۰ نظر

رامین کیانی - چند روز پیش بود که جفری هینتون ملقب به پدرخوانده هوش مصنوعی، ضمن اعلام خطرات هوش مصنوعی برای آینده بشریت، از کار کناره‌گیری کرد. تنها جفری هینتون نیست که از این مسئله ابراز نگرانی می‌کند، تعدادی از دانشگاهیان و افراد برجسته در حوزه فناوری نیز چنین مسائلی را مطرح کرده‌اند. برخی بر این باورند که هوش مصنوعی آینده جهان خواهد بود. برخی معتقدند که هوش مصنوعی در خدمت انسان است و انسان به وسیله این به اصطلاح ابزار، توانایی خارق العاده‌ای را برای دخل و تصرف در جهان پیرامون خود به دست خواهد آورد. گروه دیگری چنین بیان می‌کنند که جهان آینده، جهان هوش مصنوعی است اما بدون انسان و یا حتی دیگر موجودات. 

شاید در نگاه اول این موضوع بسیار دور از انتظار به نظر برسد و تنها فیلم‌های آخر زمانی را برای ما تداعی کند اما کمی تامل و توجه به ابعاد مختلف موضوع، واقعیت‌ها را برای ما علنی‌تر می‌کند. 

باید یادمان باشد که هوش مصنوعی رباتیک نیست. معمولا بیشتر افراد این دو حوزه را با یکدیگر اشتباه می‌گیرند. تصوری که از ربات‌ها در ذهن خود دارید را دور بریزید. رباتیک و هوش مصنوعی اهداف بسیار متفاوتی را دنبال می‌کنند. هوش مصنوعی قادر است به سوالاتی پاسخ دهد و معماهایی را حل کند که شما و هیچ شخص دیگری ابدا پاسخی برای آن تعریف نکرده‌اید. همانطور که از نام آن پیداست هوش مصنوعی تلاشی است برای ساخت هوش. هوش مصنوعی نمونه‌ای از تلاش انسان برای شبیه سازی هوش خود برای سهولت انجام امور و کاهش رنج است. هوش بخشی از ماحصل فعالیت‌های مغز است. مغز ما یعنی انسان‌های خردمند (هموساپینس‌ها) به عنوان پیشرفته‌ترین مغز در جهان شناخته می‌شود. حال با ظهور هوش مصنوعی یک مسئله جدید پیش روی ماست، آیا هوش مصنوعی می‌تواند از هوش هموساپینس‌ها که خالق آن هستند فراتر رود؟ برخی معتقد هستند که این موضوع امکان پذیر نیست؛ اما گروه دیگری بر این باورند که هوش مصنوعی محدودیت‌های بیولوژیکی مغز هموساپینس‌ها را ندارد. صحبت پیرامون این مسئله را به جای دیگری واگذار کنیم. 

پرسش مهمتری که تا اینجای بحث پیش روی ما این است که چرا ظهور یک هوش می‌تواند برای ما (هموساپینس‌ها) خطرساز باشد؟ برای پاسخ به این سوال باید به سراغ زیست‌شناسی و ژنتیک برویم. با نگاهی به دنیای پیرامون در می‌یابیم که بسیاری از حیوانات از نظر فیزیکی و سازگاری با محیط توانایی‌های بسیار بیشتری از ما دارند و این تنها مغز و هوش انسان خردمند بوده که او را حاکم بلامنازع کره زمین کرده است. انسان با کمک مغز خود ابزار تولید کرده و به وسعت ابزارهایش جهان را تحت سلطه خود درآورده است. شاید دانستن این موضوع بی‌ربط نباشد که همین جهان پیرامونی که ما درباره آن صحبت می‌کنیم واقعا به گونه‌ای که ما می‌بینیم نیست و تصویری که ما از جهان می‌بینیم و درک ما از هستی، برایند پردازش داده‌هایی است که مغز ما با کمک گیرنده‌های خود (حواس پنج‌گانه) از محیط دریافت می‌کند. جالب است که بدانیم دیدن، شنیدن، چشیدن و همه چیز در ذهن ما رخ می‌دهد و نه در خود اندام‌های گیرنده. این‌‌ها موضوعات بسیار قابل تاملی است. حالا شاید بهتر مفهوم هوش مصنوعی را درک کنیم. 

در واقع می‌توان گفت هوش مصنوعی هم مانند مغز هموساپینس‌ها درکی از جهان دارد. درکی که احتمالا ما هیچ اطلاعی از آن نداریم. از این نقطه به بعد داستان برای ما بسیار خطرناک‌ می‌شود. هوش مصنوعی درکی از جهان دارد، همانند دیگر موجودات. هر جنبنده‌ای به میزان توسعه مغزش از جهان پیرامون خود درکی دارد. پس هرچند که هوش مصنوعی ساخته طبیعت نیست و از دل آن بیرون نیامده و ظاهرا نمی‌تواند یک رقیب برای گونه هموساپینس‌ها باشد اما هوش مصنوعی ساخته هموساپینس‌هاست، ساخته‌ای که درکی از جهان دارد و قادر است تصمیم‌گیری ‌کند و احتمالا در آینده‌ای نزدیک، خود نیز خالق ابزارهای خود باشد و این یک تهدید بسیار بزرگ است. 

آنچه پیداست هوش مصنوعی روز به روز پیشرفته‌تر خواهد شد و احتمالا هموساپینس‌ها در خطر انقراض قرار می‌گیرند. حال سوال نهایی ما این است. انسان خردمند در مقابل این تهدید چه کاری می‌تواند انجام دهد؟ آیا راه خلاصی وجود دارد؟ اینجاست که انسان خردمند بار دیگر باید از ابزارهای خود استفاده کند. یکی از ابزارهای انسان حکومت است. حکومت‌ها باید به تصویب قوانین بازدارنده بپردازند. هر چند احتمالا هیچ قانونی نمی‌تواند به طور کامل در مقابل رشد هوش مصنوعی ایستادگی کند. هوش مصنوعی به عنوان یک تهدید جهانی نیاز به راه حل‌ جهانی دارد. همانطور که تغییرات اقلیمی، تروریسم و پاندمی‌های نوین نیز بحران‌های جهانی هستند و راه حل‌های جهانی طلب می‌کنند. انسان‌ خردمند باید از ابزارهای جهانی خود یعنی سازمان‌های بین‌المللی استفاده کند. 

شاید سازمان‌های بین‌المللی اکنون توانایی غلبه بر بسیاری از مشکلات جهانی را نداشته باشند. اما تشدید بحران‌های کنونی و ظهور بحران‌های جدید اهمیت سازمان‌های بین‌المللی را بیش از پیش برای همگان آشکار خواهد کرد. سازمان‌های بین‌المللی و در رأس آنها سازمان ملل متحد باید هر چه زودتر در مقابل این تهدید جهانی چاره‌ای بیاندیشند، پیش از آن که کار از کار بگذرد. (منبع:دیپلماسی ایرانی)

وزنیاک: نمی‌توان رشد هوش مصنوعی را متوقف کرد

جمعه, ۲۲ ارديبهشت ۱۴۰۲، ۰۳:۲۰ ب.ظ | ۰ نظر

استیو وزنیاک، یکی از بنیانگذاران کمپانی اپل، در هشداری جدی درباره پیشرفت هوش مصنوعی، گفته است ما نمی‌توانیم رشد آن را متوقف کنیم.
به گزارش همشهری آنلاین و به نقل از روزنامه سان، این هشدار تنها چند روز پس از آن منتشر شد که جفری هینتون که او را به عنوان پدرخوانده هوش مصنوعی می‌شناسند، هشدار داد که این فناوری می تواند توسط «بازیگران بد» استفاده شود.

وزنیاک به همراه استیو جابز در سال ۱۹۷۶ کمپانی اپل را تأسیس کرده بود، او در مصاحبه‌ای با بی‌بی‌سی نیز نگرانی مشابهی را تکرار کرده است. وزنیاک که اکنون ۷۲ سال دارد به این شبکه گفت که نگران است «بازیگران بد» از هوش مصنوعی سوء استفاده کنند و از آن برای فریب قربانیان ناآگاه، به دست آوردن اطلاعات شخصی یا سرقت اطلاعات استفاده کنند.

وزنیاک افزود: هوش مصنوعی بسیار باهوش است و درهای آن برای بازیکنان بد باز است، آن‌هایی که شما را درباره هویت خود و اینکه چه کسی هستندف فریب می‌دهند. او پیشنهاد کرد که محتوای هوش مصنوعی باید برچسب‌گذاری و تنظیم شود و ادعا کرد که شرکت‌های بزرگ فناوری احساس می‌کنند که می‌توانند از هر چیزی در حال حاضر استفاده کنند واز پیگرد و نظارت مصون بمانند.

وزنیاک گفت: یک انسان واقعا باید مسئولیت آنچه که توسط هوش مصنوعی تولید می شود را بپذیرد. همزمان او به این نکته اذعان کرد که مقررات نمی‌تواند به تنهایی مشکل در رابطه با هوش مصنوعی را حل کند و اشاره کرد که برخی ممکن است از پول و منابع مالی برای تغییر خیلی چیزها به نفع خود استفاده کنند.

در ماه‌های اخیر، نگرانی‌ها در مورد اینکه آیا پیشرفت‌های هوش مصنوعی به حدی خواهد رسید که چت‌بات‌ها، روبات‌ها و سایر سیستم‌ها جایگزین کارگران انسانی شوند، افزایش یافته است. وزنیاک نسبت به این نگرانی‌ها به دیده تردید می‌نگرد،  او به بی بی سی گفت که هوش مصنوعی نمی‌تواند جایگزین افراد شود زیرا فاقد احساسات است. در عین حال، او هشدار داد که این فناوری هنوز در حال رشد است.

وزنیاک گفت: «ما نمی توانیم جلوی فناوری را بگیریم. در نهایت، او معتقد است که افراد می توانند در کنار آن رشد کنند و در شناسایی محتوای جعلی یا کلاهبرداری‌های سایبری بهتر عمل کنند. اخیرا وزنیاک به بیش از هزار نفر از جمله ایلان ماسک پیوست و نامه‌ای سرگشاده را امضا کرد که خواستار توقف شش ماهه توسعه سیستم‌های هوش مصنوعی شده بود.
این نامه به دلیل انتشار GPT-۱، یک نسخه قدرتمندتر و پیشرفته تر از فناوری مورد استفاده توسط ربات چت محبوب ChatGPT، تنظیم شده بود و در آن نگرانی‌ها درباره توسعه سریع هوش مصنوعی ابراز شده بود.

تدابیر بین‌المللی علیه هوش مصنوعی

چهارشنبه, ۲۰ ارديبهشت ۱۴۰۲، ۰۳:۵۳ ب.ظ | ۰ نظر

توسعه ابزار هوش مصنوعی جدید طی ماه‌های اخیر، سبب تشدید نگرانی‌ها در مورد تهدیدات بالقوه این فناوری نوظهور در میان قانون‌گذاران سراسر جهان شده است.

خبرگزاری مهر - گروه دانش و فناوری؛ سیدرضا حسینی: مدتی است که آوازه هوش مصنوعی و پیشرفت‌هایش در سراسر جهان پیچیده و یکی از معروف‌ترین آن‌ها که به‌محض برخورد با کلمه هوش مصنوعی در ذهن تداعی می‌شود چت جی پی تی است؛ اما اکثر اسم‌هایی که با عنوان هوش مصنوعی به گوش ما می‌رسند، در واقع نرم‌افزارهای مبتنی بر هوش مصنوعی هستند.

«ChatGPT» و «Bard» جزو گروه چت‌بات‌ها هستند و «Midjourney» و «Dall.E» از جمله مدل‌های یادگیری ماشینی هستند که برای تبدیل متن به تصویر دیجیتال ساخته شده‌اند.

با گذشت مدتی کوتاه از عرضه عمومی «ChatGPT» و رشد رکورد شکن تعداد کاربران این پلتفرم، مسئله تنظیم‌گری فناوری‌های نوظهور همچون هوش مصنوعی، بار دیگر به اولویت اصلی فعالان این حوزه و دولت‌های سراسر جهان تبدیل شده است. ابراز نگرانی از مضرات این فناوری تا آنجا پیش رفت که جفری هینتون یکی از پیش کسوت‌ها و پدرخوانده هوش مصنوعی به تازگی و پس از آنکه متوجه شد احتمالاً رایانه‌ها از انسان‌ها باهوش‌تر می‌شوند، از شرکت گوگل استعفا داد تا آزادانه درباره خطرات این فناوری صحبت کند.

وی که با ابراز نگرانی درباره خطرات هوش مصنوعی از شرکت گوگل استعفا داده است، گفت: اکنون از کار خود در این رشته پشیمان است.

او در مصاحبه‌ای با نیویورک تایمز درباره ظرفیت این فناوری برای ایجاد تصاویر و متون جعلی اظهار نگرانی کرد و گفت: این فناوری و ابزارهایش دنیایی را به وجود می‌آورند که در آنها انسان‌ها نمی‌توانند واقعیت را تشخیص دهند.

 

قیام کشورها علیه فناوری‌های نوظهور هوش مصنوعی

با همه اینها به عقیده بسیاری از کارشناسان، هوش مصنوعی فناوری آینده‌ساز خواهد بود و درک ما از زندگی را تا حدود زیادی تغییر خواهد داد. از همین روی با روی کار آمدن و شهرت روز افزون چت جی پی تی، سیاستمداران با عزمی راسخ در پی مهار و کنترل آن برآمده‌اند.

از سوی دیگر، غول‌های فناوری مانند مایکروسافت، گوگل و آمازون نیز در حال رقابت تنگاتنگ برای بهره‌برداری حداکثری از مواهب توسعه این فناوری نوظهور هستند و همین امر، مسئله لزوم تنظیم‌گری این حوزه را بیش از پیش برجسته ساخته است. زیرا در صورت عدم کنترل نهادهای قانون‌گذار و تنظیم‌گر بر قوانین رقابت، هوش مصنوعی مولد می‌تواند سبب کسب مزیت و قدرت نامتعارف از سویشرکت‌های بزرگ فناوری شود و این بنگاه‌های اقتصادی را بر جوامع بشری مسلط کند.

تدابیر بین‌المللی علیه هوش مصنوعی جدید

چین؛ از مقابله رویاروی تا چت بات ملی

دولت چین، در راستای مقابله با تهدیدات هوش مصنوعی دو راه حل اساسی اتخاذ کرده است. این کشور در ماه فوریه اعلام کرد که پکن از شرکت‌های پیشرو در ساخت مدل‌های هوش مصنوعی که می‌توانند «Chat GPT» را به چالش بکشند، حمایت خواهد کرد. در ماه آوریل خبرگزاری شینهوا یک بیانیه دولتی بر مبنای نشست فصلی حزب کمونیست منتشر کرد. این بیانیه تأکید می‌کند که چین باید توجه شایانی به توسعه هوش مصنوعی و خلاقیت در این حوزه و مقابله با خطرات پیش‌بینی شده آن داشته باشد. به عقیده برخی کارشناسان این اقدام چین علاوه بر اینکه نشان‌دهنده اولویت چین در تبدیل‌شدن به قدرت اول در حوزه فناوری است، مبین اهمیت «ChatGPT» و لزوم مقابله با قدرت انحصاری این پلتفرم است.

دوم اینکه دولت چین علاوه بر اینکه تلاش دارد تا چت‌بات ملی خود را داشته باشد، تلاش برای تنظیم‌گری هوش مصنوعی مولد را نیز در دستور کار خود قرار داده است. تنظیم‌کننده فضای سایبری چین (CAC) در این راستا از پیش‌نویس اقداماتی برای تنظیم‌گری خدمات هوش مصنوعی رونمایی کرد و در آن از شرکت‌ها خواست که ارزیابی‌های امنیتی خود را قبل از ارائه خدمات به مقامات اعلام کنند. اصول دولت چین در تنظیم‌گری هوش مصنوعی، نظارت بر محتوا، حمایت از حق مالکیت معنوی، مقابله با اطلاعات نادرست، حفظ حریم شخصی و محافظت از داده‌ها و رفع نابرابری است.

 

اولین گام مهم اتحادیه اروپا

اتحادیه اروپا و نهادهای قانون‌گذار آن در بحبوحه محبوبیت و شهرت «ChatGPT» و سایر چت‌بات‌ها و هوش مصنوعی‌های مولد در پی آسیب‌شناسی و مقابله با خطرات احتمالی این فناوری جدید، بر آمدند. در ادامه مروری بر نظرات مختلف و اقدامات انجام‌شده خواهیم داشت.

برخی از قانون‌گذاران اروپا معتقدند می‌توان از مقررات حفاظت از داده‌های عمومی (GDPR)، جهت کنترل هوش مصنوعی و صاحبان آن استفاده کرد. با توجه به اینکه هوش مصنوعی از داده‌ها برای پاسخ‌های خود استفاده می‌کند «GDPR» با اصول حفاظت از داده‌های خود، می‌تواند با هرگونه استفاده از داده‌های کاربران و نقض حریم شخصی مقابله کند.

برخی دیگر از تنظیم گران مانند هلن دیکسون، عضو هیئت نهاد حفاظت از داده‌ها ایرلند، در جلسه‌ای که در پی ممنوعیت موقت «ChatGPT» برگزار شد، معتقد بودند که عجله در تنظیم‌گری هوش مصنوعی مولد بدون درک و شناخت دقیق کارکرد و فرایند آن، مانع تنظیم‌گری مناسب و صحیح خواهد شد.

در نهایت هیئت حفاظت از داده‌های اروپا، با متحد کردن ناظران ملی حفظ حریم خصوصی اروپا، در ماه آوریل اعلام کرد که کارگروهی مخصوص «ChatGPT» راه‌اندازی کرده است که این حرکت را می‌توان اولین گام مهم قاره سبز در جهت تنظیم قوانین مشترک حفظ حریم خصوصی در حوزه هوش مصنوعی دانست؛ به عبارتی دیگر قانون‌گذاران اتحادیه اروپا همچنان در حال گفتگو، بحث و کارشناسی در مورد معرفی قانون هوش مصنوعی اتحادیه اروپا هستند تا حکمرانی حوزه هوش مصنوعی را بااقتدار پیش ببرد. قانون‌گذاران پیشنهاد کرده‌اند که ابزارهای گوناگون هوش مصنوعی را بر اساس میزان ریسک و خطرپذیری، از کم تا غیرقابل‌قبول درجه‌بندی کنند.

بنا به گفته سخنگوی وزیر صنعت و علوم استرالیا از نهاد اصلی مشاوره علمی کشور درباره نحوه برخورد باهوش مصنوعی درخواست مشورت کرده و در حال تحلیل و بررسی گام‌های بعدی خود است.

 

ایالات متحده آمریکا؛ تشکیل کارگروه مقابله با هوش مصنوعی

در راستای جذب میلیونی کاربران به سمت «Chat GPT» و تلاش کشورها جهت تنظیم‌گری آن، کاخ سفید در ماه مارس اعلام کرد که آمادگی شنیدن هر گونه پیشنهادی مبنی بر نحوه برخورد با «Chat GPT» و روش مسئولیت‌پذیر و پاسخگو نگه‌داشتن این فناوری جدید را دارد.

کمی قبل‌تر از آن در ماه می جو بایدن، رئیس‌جمهور ایالات متحده طی درخواستی بر بررسی پیامدهای ناشی از توسعه هوش مصنوعی تأکید کرد و شناخت و مقابله با خطرات آن را برای جامعه، امنیت ملی و اقتصاد ضروری دانست و همچنین افزود: «از نظر من، شرکت‌های فناوری مسئولیت دارند که پیش از عرضه عمومی محصولات خود، از ایمنی آن‌ها اطمینان حاصل کنند.» او از اعضای کنگره خواست که یک قانون حریم خصوصی تصویب کنند. چنین قانونی شامل مواردی مانند محدودیت شرکت‌ها در جمع‌آوری داده‌های شخصی، ممنوعیت تبلیغات برای جامعه هدف کودکان و منع انتشار اطلاعات نادرست و… خواهد بود.

طی آخرین اخبار در آوریل، مایکا بنت، سناتور آمریکایی، لایحه‌ای ارائه کرده است که بر اساس آن کارگروهی برای بررسی سیاست‌های ایالات متحده در زمینه هوش مصنوعی و شناسایی راه‌های مناسب مقابله با هر گونه نقض حریم خصوصی و آزادی‌های مدنی در آمریکا تشکیل شده و روندهای قانونی نحوه توسعه این فناوری مشخص خواهد شد.

وزیر امنیت میهن آمریکا نیز اعلام کرد کارگروه هوش مصنوعی همچنین شیوه استفاده از این فناوری برای انجام بهتر کارها مانند بررسی محموله‌های ورودی به کشور برای ردیابی کالاهای غیرقانونی را مطالعه می‌کند.

وی همچنین خواستار استفاده از هوش مصنوعی جهت ایمن سازی شبکه توزیع برق و سیستم‌های ذخیره آب شد. بیم آن می‌رود که هر دو این زیرساخت‌ها هدف دشمنان قرار گیرند.

مایورکاس اعلام کرد این فناوری به طور گسترده‌ای چشم انداز تهدیدها را تغییر می‌دهد.

کارشناسان امنیتی در واشنگتن مدعی احتمال استفاده دشمنان خارجی از قابلیت‌های هوش مصنوعی برای ضربه‌زدن به امنیت ملی ایالات متحده شدند.

وظیفه این کارگروه بر اساس لایحه منتشر شده، شناسایی نقاط ضعف در فرایند نظارت بر هوش مصنوعی و ارائه پیشنهادهایی برای بهبود و اصلاح رویه‌ها خواهد بود. اعضای این کارگروه اعضای برخی از سازمان‌های دولتی مانند: دفتر مدیریت و بودجه، نهاد ملی استاندارد و فناوری، دفتر سیاست دانش و فناوری و افسران آزادی‌های مدنی و حریم خصوصی از وزارت‌خانه‌های دادگستری، امور خارجه، خزانه‎‌داری، دفاع و سایر دستگاه‌های اجرایی هستند.

بر اساس مفاد لایحه، تشکیل این کارگروه موقتی است و بعد از ۱۸ ماه، گزارش نهایی را ارائه کرده و سپس تعطیل می‌شود.

در پنجم ماه می جو بایدن، رئیس‌جمهور ایالات متحده آمریکا به دنبال لزوم تنظیم‌گری هوش مصنوعی در نشستی با حضور مدیران شرکت‌های هوش مصنوعی از جمله مایکروسافت و گوگل به‌وضوح اعلام کرد که شرکت‌ها موظف‌اند ایمنی پلتفرم‌هایشان را قبل از توسعه آن تضمین کنند. محورهای اصلی این جلسه شامل لزوم شفافیت بیشتر شرکت‌ها در مقابل سیاست‌گذاران، اهمیت ارزیابی این محصولات و نیاز به محافظت از آنان در مقابل حملات مخرب بود. همچنین در این جلسه به نگرانی‌هایی درباره هوش مصنوعی مانند نقض حریم خصوصی، تصمیم‌های غلط در استخدام که منجر به ازبین‌رفتن مشاغل شود و ایفای نقش هوش مصنوعی به‌عنوان ناشر اطلاعات نادرست اشاره شد.

 

بریتانیا؛ مسئولیت پذیر کردن شرکت‌ها از طریق رویکردهای غیرسختگیرانه

دولتمردان بریتانیایی در ماه آپریل اعلام کردند هوش مصنوعی علاوه بر مزایایی که در رشد و پیشرفت بشر دارد ممکن است مشکلاتی را درباره حریم خصوصی، حقوق بشر یا ایمنی افراد ایجاد کند. آن‌ها مدعی شدند که قوانین سخت‌گیرانه و سرکوبگر را راه‌حل مناسبی نمی‌دانند و قصد دارند رویکردهای منعطف‌تر و بر اساس اصولی مانند ایمنی، شفافیت، انصاف و مسئولیت‌پذیری را در پیش گیرند.

کمی بعد استفان آلموند، مدیر اجرایی ریسک‌های امنیت داده از دفتر کمیسری اطلاعات بریتانیا هوش مصنوعی مولد بخصوص «Chat GPT» متعلق به شرکت «OpenAI» را خطری بالقوه برای امنیت داده دانست و بر اهمیت چگونگی استفاده این فناوری از داده‌های شخصی تأکید کرد. او در ادامه به لزوم متعهدشدن سازمان‌هایی که از هوش مصنوعی استفاده می‌کنند به حفاظت از داده‌های شخصی اشاره کرد و پیامدهای اهمیت‌ندادن هوش مصنوعی به حریم شخصی را بزرگ و سخت دانست.

سرانجام بریتانیا در ماه مارس اعلام کرد که قصد دارد به‌جای ایجاد یک نهاد تنظیم‌گر جدید، مسئولیت مدیریت هوش مصنوعی را بین تنظیم‌کننده‌های حقوق بشر، سلامت و ایمنی و رقابت تقسیم کنند.

 

ایتالیا؛ فیلترینگ و مشروط سازی

ایتالیا در ماه مارس، «ChatGPT» را موقتاً ممنوع اعلام کرد، زیرا مقامات تنظیم‌گر حفاظت از داده‌ها نگرانی‌هایی را در مورد نقض حریم خصوصی، نقض مقررات «GDPR» و کاربران زیر ۱۳ سال داشتند. همچنین سازمان دیده‌بان ایتالیا در ۲۰ مارس گفت که هیچ مبنای قانونی برای توجیه «جمع‌آوری و ذخیره انبوه داده‌های شخصی» به‌منظور «آموزش» الگوریتم‌های زیربنایی عملکرد پلتفرم وجود ندارد.

ایتالیا از شرکت سازنده هوش مصنوعی جدید خواست ابزاری فراهم کند تا همه افرادی که داده‌هایشان در چت جی پی تی مورد استفاده است، بتوانند درخواست تصحیح یا حذف داده‌های شخصی خود که به‌طور نادرست توسط این سرویس ایجاد شده‌اند را مطرح کنند. OpenAI همچنین باید به غیر کاربران اجازه دهد تا «به روشی ساده و در دسترس» با پردازش داده‌های شخصی خود برای اجرای الگوریتم‌های چت جی پی تی مخالفت کنند.

همچنین از این شرکت خواسته شده تا پایان سپتامبر یک سیستم تأیید سن را راه اندازی کند تا دسترسی کاربران زیر ۱۳ سال به چت جی پی تی ممنوع شود.

کمتر از یک ماه پس از اعمال ممنوعیت‌هایی برای ChatGPT به دلیل نگرانی‌های مربوط به حریم خصوصی توسط ایتالیا، دولت این کشور در روز جمعه نسبت به رویکرد خود درباره چت‌بات OpenAI عقب نشینی کرد. تصمیم جدید ایتالیا پس از پاسخگویی این استارتاپ به نگرانی‌هایی که درباره حریم خصوصی و امنیت داده‌های کاربران در پلتفرم هوش مصنوعی آنها مطرح شده بود، اتخاذ شده است.

تدابیر بین‌المللی علیه هوش مصنوعی جدید

آلمان و اقدامی مشابه ایتالیا

همچنین در روزهای اخیر ۴۲ انجمن و اتحادیه تجاری آلمانی که نماینده بیش از ۱۴۰ هزار مؤلف و بازیگر هستند از اتحادیه اروپا خواسته اند سریع‌تر پیش نویس قوانین هوش مصنوعی را فراهم کند. آنها به تهدید «چت جی پی تی» برای کپی رایت آثارشان اشاره کردند.

در این نامه به اهمیت نگرانی‌های روزافزون درباره هوش مصنوعی مولد مانند چت جی پی تی که می‌تواند از انسان‌ها تقلید کند و متن و تصویر بسازد، نیز پرداخته شده است.

در بخشی از این نامه آمده است: استفاده غیرمجاز از محتوای آموزشی محافظت شده، پردازش غیرشفاف آن و جایگزین کردن قابل پیش بینی منابع با محصول خروجی هوش مصنوعی مولد سوالاتی بنیادین درباره مسئولیت پذیری و پاداش ایجاد می‌کند که باید قبل از ایجاد آسیب‌های جبران ناپذیر، به آنها پرداخته شود. هوش مصنوعی مولد باید در مرکز هر قانون مربوط به بازار هوش مصنوعی باشد.

از سوی دیگر به نظر می‌رسد آلمان در نظر دارد به دلیل نگرانی در مورد حریم خصوصی، استفاده از چت جی‌پی‌تی را ممنوع کند. به گزارش ایندیپندنت، اولریش کلبر، رئیس حفاظت از داده‌های کشور آلمان، به روزنامه هندلسبلات (Handelsblatt) گفت: «به دنبال ممنوعیت چت جی‌پی‌تی در ایتالیا، ناظران آلمانی با همتایان ایتالیایی خود در ارتباط هستند و حالا این احتمال وجود دارد که چنین اقدامی در آلمان نیز صورت بگیرد.»

 

ژاپن؛ اجلاس G۷ و بیانیه پایانی با محوریت هوش مصنوعی

وزرای کشورهای عضو گروه ۷ معتقدند باید قوانینی مبتنی بر ریسک برای هوش مصنوعی به کار گیرند.

این در حالی است که قانونگذاران اروپایی سعی دارند هرچه سریع‌تر یک قانون مرتبط با ابزارهای نوظهوری مانند چت جی پی تی وضع کنند البته طبق بیانیه مشترک وزرای گروه ۷، قانون مذکور باید یک محیط باز و توانمند برای توسعه فناوری‌های هوش مصنوعی را حفظ کند و مبتنی بر ارزش‌های دموکراتیک باشد.

این بیانیه در پایان اجلاس ۲روزه گروه در ژاپن صادر شده است.

هر چند به اعتقاد وزرا ممکن است ابزارهای سیاستگذاری برای دستیابی به چشم اندازی یکسان و هدف ایجاد یک سیستم هوش مصنوعی ایمن بین کشورهای عضو این گروه متفاوت باشد، اما توافق مذکور نقطه عطفی در زمینه نظارت کشورهای پیشرفته بر هوش مصنوعی در بحبوحه اوج گیری نگرانی‌های حریم خصوصی و ریسک‌های امنیتی است.

مارگارت وستاگر کمیسر رقابت اتحادیه اروپا پیش از توافق در این باره گفت: نتیجه گیری اجلاس گروه ۷ نشان می‌دهد ما در زمینه قانونگذاری برای هوش مصنوعی تنها نیستیم.

در بخش دیگری از بیانیه وزرای این گروه آمده است: ما تصمیم داریم در آینده مذاکرات درباره هوش مصنوعی مولد را در اجلاس‌های گروه ۷ ادامه دهیم. در این مذاکرات احتمالاً موضوعاتی مانند نظارت، چگونگی حفاظت از حقوق مالکیت معنوی از جمله کپی رایت، ترویج شفافیت، بررسی اطلاعات اشتباه (از جمله اطلاعاتی که توسط نیروهای خارجی دستکاری می‌شود) مورد بحث قرار می‌گیرد.

در این میان ژاپن که رئیس گروه ۷ در سال جاری است، روشی آسانگیرانه تر در خصوص توسعه دهندگان هوش مصنوعی در پیش گرفته و خواستار پشتیبانی عمومی و صنعتی از توسعه هوش مصنوعی شده است.

ژاپن امیدوار است تا گروه ۷ را به یک فرایند نظارتی انعطاف پذیر به جای قوانینی سختگیرانه در خصوص هوش مصنوعی متقاعد کند.

 

روسیه؛ گیگا چت بومی

بانک روسی «اسبربانک» (Sberbank) رقیب چت جی پی تی به نام «گیگاچت» را ارائه کرده است. این فناوری در حال حاضر در وضعیت آزمایشی است و افراد با استفاده از دعوتنامه می‌توانند از آن استفاده کنند.

به گفته اسبربانک نکته متمایز گیگاچت توانایی برقراری ارتباط هوشمندانه‌تر به زبان روسی نسبت به سایر شبکه‌های عصبی خارجی است.

اسبربانک یا بانک پس‌انداز فدراسیون روسیه بزرگترین بانک در روسیه و اروپای شرقی است که در سال‌های اخیر سرمایه گذاری عظیمی در این فناوری کرده است. هدف این بانک کاهش اتکای کشور به واردات است زیرا پس از حمله روسیه به اوکراین کشورهای غربی صادرات را به شدت کاهش داده و تحریم‌های علیه آن وضع کرده اند.

 

ضرورت پیوست نگاری برای فناوری‌های نوظهور

«علی زرودی»، پژوهشگر فضای مجازی و مدرس دانشگاه، در گفتگو با خبرنگار مهر درباره تهدیدات بالقوه هوش مصنوعی گفت: هوش مصنوعی مانند بسیاری از فناوری‌های نوظهور گذشته، گرچه مزایای شگفت‌انگیزی دارد و فرصت‌های بی‌بدیلی می‌آفریند؛ اما جوامع بشری را با تهدیدات بزرگی مواجه می‌کند. یکی از مهمترین این تهدیدات نقض امنیت داده و حریم خصوصی است.

وی افزود: تهدید دیگر بیکارشدن بخشی از نیروی کار فعلی جوامع است. افزایش نظارت دولت‌ها و شرکت‌های صاحب فناوری بر کاربران، افزایش دستکاری در افکار عمومی به واسطه تسهیل تولید و انتشار محتوای نادرست و جعلی (مانند ساخت ویدئوی جعلی از سخنرانی یک شخصیت مشهور)، پیچیده‌تر شدن حملات سایبری، جاسوسی و باج‌افزارها نیز از دیگر تهدیدات این فناوری محسوب می‌شوند.

پژوهشگر فضای مجازی گفت: البته هوش مصنوعی برای تقابل با این تهدیدات هم یاریگر انسان‌ها خواهد بود؛ به عنوان مثال تقویت «دفاع سایبری» از مزایای این فناوری محسوب می‌شود. نکته دیگر این است که پیش‌بینی این تهدیدات و اتخاذ تدابیر تنظیم‌گرانه برای مقابله با آن‌ها مهم و ضروری است.

وی در ادامه و در مورد دلیل تمرکز نهادهای تنظیم‌گر جهان بر حوزه فناوری هوش مصنوعی افزود: وظیفه قانون‌گذاران و به طور کلی حکمرانان یک جامعه، تضمین منافع و مصالح عمومی آن جامعه است. هدف محوری شرکت‌های هوش مصنوعی مانند سایر شرکت‌ها در بخش خصوصی، بیشینه کردن سود تجاری است. بنابراین این شرکت‌ها به دنبال خلاقیت و نوآوری روزانه هستند. از آنجا که مطابق نظریات جامعه شناختی، سرعت تغییرات ارزشی و هنجاری در یک جامعه بسیار کمتر از سرعت تغییرات فناوری در آن جامعه است (که اصطلاح تأخر فرهنگی/Cultural Lag را برای این پدیده استفاده می‌کنند) تحولات روزانه فناوری‌ها موجب اختلال در سیستم ارزشی جوامع می‌شود.

زرودی افزود: اگر این تحول فناورانه، به صورت وارداتی باشد، شدت تأخر فرهنگی و اختلال ذکر شده بیشتر خواهد بود. تحولات سیستم ارزشی جامعه پیامدهایی برای سایر سیستم‌ها همچون سیاست، فرهنگ، اقتصاد، تربیت و… دارد و منافع عمومی را به خطر می‌اندازد. قانون‌گذار به ویژه در کشورهایی که واردکننده فناوری هستند، تلاش می‌کند تا با محدودکردن شرکت‌های فناوری از اختلالات ذکر شده بکاهد. به عنوان مثال بریتانیا و اتحادیه اروپا که در زمینه تحولات فناوری از شرکت‌های آمریکایی عقب افتاده‌اند و محصولات فناورانه داخلی آن‌ها نمی‌تواند با محصولات شرکت‌های آمریکایی رقابت کند، به مقررات‌گذاریِ حداکثری برای شرکت‌های آمریکایی روی آورده‌اند.

وی در این مورد گفت: فناوری‌های نوظهور همواره می‌تواند شتاب پیشرفت اقتصادی را بیشتر کند مشروط به آنکه رویکرد فعالانه (بدون تأخیر، آینده‌نگرانه و مبتنی بر طراحی بومی) وجود داشته باشد و زیرساخت‌های حقوقی، اقتصادی، اجتماعی و سیاسی لازم برای توسعه آن فناوری مهیا شود. با درنظر گرفتن چنین شرایطی، فناوری نوظهور می‌تواند در مسیر پیشرفت، جهش ایجاد کند.

هر یک روز تأخیر ما برای ورود به طراحی اکوسیستم بومی یک فناوری منجر به این می‌شود که در آن فناوری عقب‌مانده و بدون قدرت باشیم. اقتضای حکمرانی فعال، غنیمت شمردن فرصت‌هاست

پژوهشگر فضای مجازی و مدرس دانشگاه اظهار داشت: تاکنون چنین مواجهه مطلوبی با فناوری‌های نوظهور نداشته‌ایم. اقدامات گذشته ما منفعلانه بوده است. یا جلوی یک فناوری را گرفته‌ایم یا در نهایت آن را وارد کرده و برایش پیوست فرهنگی و زیست محیطی و… نوشته‌ایم. پیوست‌نگاری برای فناوری‌های نوظهور حتی اگر نوع پیوست‌نگاری پیشینی (یعنی پیش از ورود فناوری به کشور) باشد، اقدامی منفعلانه است. اقدام فعالانه در مواجهه با فناوری جدید، طراحی بومی باشد ضروری است. چند سال قبل که ما از ضرورت طراحی بومی اینترنت اشیا صحبت می‌کردیم، برخی این موضوع را باور نداشتند تا اینکه در دو سال گذشته، آفکام در رویکرد جدید خود برای توسعه سواد رسانه‌ای، اقدام به تعامل با پلتفرم‌ها کرده است تا طراحی پلتفرم‌ها متناسب با اصول سواد رسانه‌ای مدنظر آفکام باشد. درواقع مقررات و ارزش‌ها را در مرحله طراحی فناوری پیاده‌سازی می‌کند. بعد از این اقدام آفکام، حرف ما نیز درخصوص طراحی بومی اینترنت اشیا شنیده شد. امروز هم همین موضوع درمورد هوش مصنوعی و سایر فناوری‌ها وجود دارد. هر یک روز تأخیر ما برای ورود به طراحی اکوسیستم بومی یک فناوری منجر به این می‌شود که در آن فناوری عقب‌مانده و بدون قدرت باشیم. اقتضای حکمرانی فعال، غنیمت شمردن فرصت‌هاست.

به گزارش مهر، هوش مصنوعی‌هایی مانند «ChatGPT» مزایای بسیاری دارند، این پلتفرم‌ها می‌توانند سرعت رشد و توسعه علم را بالا برده و به تجارت، اکتشاف، آموزش، سیاست‌گذاری و بسیاری از مسائل خرد و کلان زندگی بشر رونق بیشتری داده و کیفیتشان را بالا ببرد؛ اما بی‌اهمیتی به معایب آن و اقدام‌نکردن به‌موقع برای تنظیم‌گری درست و به‌قاعده می‌تواند آثار جبران‌ناپذیری داشته باشد که نه‌تنها خود آسیب می‌زنند بلکه مزایای هوش مصنوعی را هم عملاً بی‌فایده خواهند کرد.

مراقب سوالاتی که از ChatGPT می‌کنید باشید

دوشنبه, ۱۸ ارديبهشت ۱۴۰۲، ۰۵:۰۲ ب.ظ | ۰ نظر

غزال زیاری- خبرآنلاین - به‌صورت پیش‌فرض، OpenAI از پیغام‌هایی که شما برای ChatGPT ارسال می‌کنید، برای آموزش و پیشرفت مدل‌هایش بهره می‌برد ولی کاربران این امکان را دارند که با بهره‌گیری از فعال کردن "حالت ناشناس" در این پلتفرم، مانع از انجام این کار شوند.

با عرصه و ارائه فناوری‌های جدید در دنیا، مدت زمانی طول می‌کشد تا مسائل متعددی از جمله حریم خصوصی و امنیتی آن تعریف و تعیین شود و حالا این موضوع درمورد ChatGPT نیز صادق است. این مدل زبانی مولد متن که با بهره‌گیری از هوش مصنوعی کار می‌کند، در نوع خود بی‌نظیر و خیره‌کننده است؛ اما حالا تردیدهایی در مورد نحوه جمع‌آوری و پردازش داده‌های ما توسط این ابزارها ایجاد شده است.

توسعه‌دهندگان ChatGPT، این مدل زبانی بزرگ را بر پایه حجم وسیعی از متون در دسترس و موجود در اینترنت تعلیم داده‌اند. ولی این ربات چت‌بات، علاوه بر این داده‌ها، از گفتگوهایی که با شما دارد نیز برای یادگیری استفاده می‌کند. پس اگر می‌خواهید از حریم خصوصی‌تان محافظت کنید، باید بدانید که شرایط و گزینه‌های پیش رو چیست؛ تا چه اندازه باید به ChatGPT اطلاعات بدهید و چه بایدها و نبایدهایی در این مسیر وجود دارد.

در این مقاله سه نکته مشخص را به شما یادآوری می‌کنیم:

فعال کردن حالت ناشناس در ChatGPT

به‌صورت پیش‌فرض، OpenAI از پیغام‌هایی که شما برای ChatGPT ارسال می‌کنید، برای آموزش و پیشرفت مدل‌هایش بهره می‌برد ولی کاربران این امکان را دارند که با بهره‌گیری از فعال کردن "حالت ناشناس" در این پلتفرم، مانع از انجام این کار شوند.

برای فعال کردن این حالت، ChatGPT را در مرورگر خود باز کنید، بر روی نام کاربری خود در سمت چپ کلیک کرده و وارد بخش تنظیمات شوید. در کنار گزینه Data Controls، روی Show کلیک کرده و گزینه Chat History & Training را خاموش کنید.

از حالا به بعد، هر زمانی که برگه مرورگر خود را ببندید، گزارش گفتگوهای شما با ChatGPT از حسابتان ناپدید می‌شود؛ البته این بدان معنا نیست که این گفتگوها کاملا از بین بروند ( چرا که OpenAI، تاریخچه گفتگوها را برای ۳۰ روز نگاه می‌دارد تا برای "نظارت بر سوءاستفاده‌های احتمالی" آنها را در اختیار داشته باشد و بعد از سی روز این گفتگوها پاک خواهند شد.)

در منوی Data Controls، یک گزینه به نام Export Data نیز در اختیار شماست. استفاده از این گزینه تاثیری بر نحوه استفاده OpenAI از اطلاعات شما و یا پاک کردن اطلاعاتی که تا حالا جمع‌آوری کرده ندارد؛ بلکه به شما در مورد آنچه OpenAI از شما می‌داند، ایده بهتری می‌دهد. این ممکن است شامل گفتگوهایی که پاک نکرده‌اید و یا بازخوردهایی که به سوالات ChatGPT داده‌اید، باشد.

اگر موضوعی است که شما با آن احساس راحتی نمی‌کنید، می‌توانید به صورت دستی، تاریخچه گفتگوها را پاک کنید. به صفحه ChatGPT خود برگردید، بر روی نام کاربری‌تان کلیک کرده و سپس وارد بخش Clear Conversations بشوید تا به یک باره کل گفتگوها را پاک کنید. یا می‌توانید روی علامت سطل زباله در کنار هر گفتگوی خاص کلیک کنید تا آن گفتگو را به کلی پاک کنید.

ChatGPT قادر نخواهد بود تا از متن گفتگوهای پاک شده، برای یادگیری استفاده کند ولی بسته به مدت زمانی که سابقه گفتگوهای شما موجود باشد، ربات چت ممکن است قبل از آنکه شما تصمیم به پاک کردن‌شان بگیرید، از آنها استفاده کند. پس برای جلوگیری از این اتفاق، یا درصورتی که فردی به کامپیوتر شما دسترسی پیدا کرده و بخواهد تا به گفتگوهای شما با ChatGPT نگاهی بیندازد، این فکر خوبی است که هر چند وقت یک بار، تاریخچه گفتگوهایتان را سر و سامان بدهید.

در نهایت، اگر دیگر نخواستید تا با ChatGPT صحبت کنید، همیشه این امکان برایتان فراهم است که حساب کاربری‌تان را پاک کنید که این کار را می‌توانید از پنل Data controls انجام دهید.

مراقب صحبت‌هایتان با ChatGPT باشید

ChatGPT ممکن است به‌صورت طبیعی و روزمره پاسخگوی شما باشد؛ ولی هرگز به هوش مصنوعی مثل یک دوست یا مشاور اعتماد نکنید. اسناد پشتیبانی رسمی این پلتفرم به کاربران توصیه می‌کند که هیچ اطلاعات شخصی را با چت‌بات به اشتراک نگذارند. چون مشخص کردن اینکه در آینده به چه ترتیب از اطلاعات شما استفاده شده و مورد تجزیه و تحلیل قرار خواهد گرفت، سخت است.

خط مشی رازداری و حریم خصوصی چت بات، گفته که OpenAI داده‌هایی مثل گفتگوها و ویژگی‌هایی که با آن سروکار دارید را ثبت می‌کند و ممکن است اطلاعات جمع‌آوری شده از جمله آمار کاربران را با اشخاص ثالث به اشتراک بگذارد. مثلا کمپانی OpenAI، در واکنش به درخواست‌های قانونی مجریان قانون، ممکن است اطلاعات شخصی کاربران مثل آدرس ایمیل آنها و یا داده‌های موقعیت مکانی‌شان را در اختیار شرکت‌های وابسته قرار دهند. ولی حتی اطلاعات ارائه شده در این رابطه نیز مبهم است و مشخص نیست که شرکت‌های وابسته‌ای که OpenAI ممکن است اطلاعات‌مان در اختیارشان قرار بگیرد، چه شرکت‌هایی هستند؟

این یک خط مشی رازداری استاندارد است و قوانین ChatGPT هم مشابه با اکثر پلتفرم‌های آنلاین است: در نتیجه هر چه اطلاعات کمتری به اشتراک بگذارید، بهتر خواهد بود. این ماجرا نه تنها شما را در برابر اقدامات مشکوک حریم خصوصی که OpenAI ممکن است در آینده پیش بیاید محافظت می‌کند، بلکه از شما در مقابل هرگونه باگ و هک شدن‌های احتمالی نیز مراقبت خواهد کرد. به عنوان مثال، قطعی اخیر ChatGPT منجر به این شد که افراد تیتر تاریخچه گفتگوهای کاربران فعال دیگر را ببینند.

اگر هر گونه اطلاعات عمومی از شما در اینترنت وجود داشته باشد، ChatGPT قادر خواهد بود تا به دیگران کاربران، درباره شما اطلاعاتی بدهد و اگر این موضوع برایتان هنوز ترسناک به نظر نمی‌رسد، به این فکر کنید که اگر روزی اشتباهاتی رخ دهد، چه خواهد شد. اگر قصد دارید تا موارد نادرست را اصلاح کرده یا تنها مانع از آن شوید که ChatGPT اطلاعاتی از شما داشته باشد، می‌توانید یک فرم خاص را پر کرده و یا از طریق ایمیل dsar@openai.com با کمپانی OpenAI تماس بگیرید و یا در سایت این پلتفرم اطلاعات بیشتری کسب کنید.

درمورد برنامه‌های شخص ثالث ChatGPT محتاط باشید

تا اینجا هر آنچه باید در هنگام استفاده از پلتفرم ChatGPT بدانید را گفتیم؛ اما این تنها جایی نیست که با ربات‌های چت بات مواجه می‌شوید. کمپانی OpenAI به اپلیکیشن‌ها و پلاگ-این‌های شخص ثالث نیز اجازه می‌دهد تا برپایه این پلتفرم کار کنند و در صورت استفاده از هریک از آنها، باید در مورد مجموعه تازه‌ای از مسائل حریم خصوصی و امنیتی نیز فکر کنید.

وقتی بحث استفاده از یک اپلیکیشن یا افزونه مرورگرهایی که برپایه ChatGPT کار می‌کنند، مطرح می‌شود، باید دقیقا همان دقتی که در استفاده از هر ابزار شخص ثالث دیگر اعمال می‌کنید را مدنظر قرار دهید: اجازه‌هایی که از شما گرفته می‌شود را بررسی کنید؛ Privacy Policy (خط مشی رازداری) و شرایط و ضوابط را مطالعه کنید و درباره هزینه‌های مرتبط، چه هزینه اشتراک باشد و چه پرداخت‌های درون برنامه‌ای مطلع شوید.

به محض آنکه چیزی مثل ChatGPT به محبوبیت برسد، کلاهبرداران و هکرها نیز به سراغش می‌آیند. از همین رو توصیه می‌شود که همیشه درباره پیشینه توسعه دهنده پشت هر ابزار ChatGPT که از آن استفاده می‌کنید، اطلاعاتی کسب کنید.

باید این را بدانید که قابل اعتمادترین برنامه‌ها ، تنظیمات حریم خصوصی و امنیتی خاص خود را دارند که می‌توانید شخصا آنها را تنظیم کنید.

آموزش چت جی‌پی‌تی با داده کاربران متوقف شد

يكشنبه, ۱۷ ارديبهشت ۱۴۰۲، ۰۶:۱۳ ب.ظ | ۰ نظر

مدیر ارشد اجرایی سازنده چت جی پی تی اعلام کرد از این پس از داده های API مشتریان برای آموزش های مدل هوش مصنوعی زبانی خود استفاده نمی کند. زیرا مشتریان از این روند ناراضی بوده اند.

به گزارش خبرگزاری مهر به نقل از سی ان بی سی، به گفته سم آلتمن مدیر ارشد اجرایی «اوپن آ.آی»، این شرکت برای مدتی مدل های زبانی خود مانند چت جی پی تی را با داده های خریداری شده کاربران آموزش می داد.

او در مصاحبه ای گفت: مشتریان به وضوح نمی خواهند سیستم های ما با داده هایشان آموزش یابد، بنابراین ما برنامه خود را تغییر دادیم و این کار را انجام نمی دهیم.

در همین راستا شرایط خدمات «اوپن آ. آی» در یکم مارس بی سروصدا تغییر کرد. آلتمن در این باره افزود: ما براساس هیچ داده API سیستم هایمان را آموزش نمی دهیم. اکنون مدتی است که این کار را انجام نمی دهیم.

APIها درحقیقت چهارچوب هایی هستند که به مشتریان اجازه می دهند به طور مستقیم به نرم افزار اوپن آ. آی متصل شوند.

مشتریان تجاری این شرکت که مایکروسافت، سلز فورس و اسنپ چت را شامل می شوند، احتمالا از قابلیت هایAPI بهره می برند.

اما سیاست جدید حریم خصوصی و حفاظت از داده اوپن آ. آی فقط شامل مشتریانی می شود که از سرویس هایAPI استفاده می کنند. در شرایط استفاده آپدیت شده شرکت آمده است: ما احتمالا از محتوای سرویس های دیگر به غیر از API کاربران استفاده می کنیم.

این امر ممکن است شامل متنی باشد که کارمندان در چت بات چت جی پی تی وارد می کنند. آمازون اخیرا به کارمندانش هشدار داده داده های محرمانه را در چت جی پی تی وارد نکنند زیرا ممکن است داده ها در پاسخ های این چت بات ظاهر شود.

تغییر مذکور در حالی اجرا می شود که صنایع با وجوه مختلف مدل های زبانی بزرگ جایگزین محتوای تولید انسان روبرو می شوند.

از سوی دیگر مدیران ارشد اجرایی شرکت ها نگران تاثیر چت جی پی تی و برنامه های مشابه بر مالکیت معنوی شان هستند.

اعتصاب نویسندگان هالیوود: هوش مصنوعی سارق است

يكشنبه, ۱۷ ارديبهشت ۱۴۰۲، ۰۴:۲۴ ب.ظ | ۰ نظر

انجمن نویسندگان آمریکا به دنبال محدود کردن استفاده از هوش مصنوعی برای نوشتن فیلمنامه‌ها است و در این راستا نویسندگان دست به اعتصاب زدند.
به گزارش فارس به نقل از سی‌ان‌ان، اختلاف بر سر هوش مصنوعی یکی از چندین موضوعی است که نویسندگان سینما و تلویزیون هالیوود را به اعتصاب کشاند و اولین توقف کار در 15 سال گذشته را رقم زد.

دهه‌ها است نویسندگان هالیوود  فیلمنامه‌های علمی تخیلی می‌نویسند که نشان می‌دهد ماشین‌هایی دنیا را در دست گرفته‌اند. اکنون، آنها برای اینکه مطمئن شوند ربات‌ها بی کارشان نمی‌کنند اعتصاب کردند.

اختلاف بر سر هوش مصنوعی یکی از چندین موضوعی است که نویسندگان سینما و تلویزیون هالیوود را به اعتصاب سوق داد. هوش مصنوعی در هالیوود، در رفع چین و چروک صورت مجریان مسن، حذف فحاشی بیش از حد دیالوگ بازیگران و کمک به ساخت فیلم‌های کوتاه انیمیشن مفید بوده است. علاوه بر این، برخی از نویسندگان نیز شروع به بررسی استفاده از هوش مصنوعی برای ساخت فیلمنامه ها کرده اند.

اما نویسندگان می ترسند که توسط هوش مصنوعی کنار گذاشته شوند یا در اولویت های بعدی قرار گیرند. به عنوان مثال، استودیوها به جای اینکه برای نوشتن پیش نویس اول نویسندگان را استخدام کنند، شاید آنها را برای انجام پیش نویس دوم به کار گیرند که هزینه کمتری دارد.

 انجمن نویسندگان آمریکا پیشنهادی ارائه کرد مبنی بر اینکه هر چیزی که توسط یک سیستم هوش مصنوعی مانند چت‌جی‌پی‌تی ایجاد می شود، نباید به عنوان مطالب ادبی در نظر گرفته شود. در اصل، اگر یک مدیر استودیو یک فیلمنامه تولید شده توسط هوش مصنوعی را برای بازبینی در اختیار نویسنده قرار دهد، نمی‌تواند به نویسنده با نرخ پایین‌تری برای بازنویسی کار دستمزد بدهد.

این اتحادیه همچنین مدعی است که از فیلم نامه های فعلی نباید برای آموزش هوش مصنوعی استفاده شود، زیرا ممکن است منجر به سرقت مالکیت معنوی شود.

آن ها می خواهند که هوش مصنوعی از کسب و کار نوشتن فیلمنامه دور باشد و سعی در جایگزینی نویسندگان نکند.

طبق اعلام دولت بایدن قرار است ۱۴۰ میلیون دلار صرف تحقیق و توسعه درباره هوش مصنوعی شود، این در حالی است که استفاده از این فناوری رو به افزایش است.
به گزارش خبرگزاری صدا و سیما به نقل از روزنامه آمریکایی دِ هیل، دولت بایدن اعلام کرد در شرایط فعلی که هوش مصنوعی میان کاربران رونق گرفته، ۱۴۰ میلیون دلار برای تحقیق و توسعه درباره این فناوری سرمایه گذاری خواهد کرد.

همراه با بودجه، دفتر مدیریت و بودجه (OMB) در ماه‌های آینده دستورالعمل‌های سیاستی در مورد استفاده از هوش مصنوعی توسط دولت فدرال را صادر خواهد کرد و شرکت‌هایی که هوش مصنوعی را توسعه می‌دهند، مانند گوگل، مایکروسافت و OpenAI، متعهد شده‌اند که در ارزیابی عمومی سیستم‌های هوش مصنوعی شرکت کنند.

بنیاد ملی علوم ۱۴۰ میلیون دلار را برای راه اندازی هفت موسسه تحقیقاتی ملی هوش مصنوعی سرمایه گذاری خواهد کرد و تعداد کل این موسسات را در آمریکا به ۲۵ عدد خواهد رساند.

تعهدات شرکت‌هایی که هوش مصنوعی را توسعه می‌دهند، بخشی از تلاش برای ارائه اطلاعات به محققان و مردم در مورد مدل‌های هوش مصنوعی و چگونگی هماهنگی مدل‌ها با اصولی که در طرح لایحه هوش مصنوعی دولت آمریکا که اخیرا برای کاهش آسیب‌های سیستم‌های خودکار منتشر شده، هماهنگ می‌کنند.

در پاسخ به این سوال که آیا نیازی به استاندارد‌های بین المللی در مورد هوش مصنوعی نیز وجود دارد، مقامات ارشد آمریکا گفتند: ما باید یک قدم برداریم و افزودند که هوش مصنوعی یک فناوری جهانی است و همکاری با شرکای اروپایی ضروری خواهد بود.

استفاده از هوش مصنوعی اخیرا رشد داشته و سیاست‌گذاران و تنظیم‌کننده‌ها در حال مبارزه با چگونگی مقابله با نگرانی‌های ناشی از آن هستند. رشد سریع این فناوری نگرانی‌هایی را در مورد خطر اطلاعات نادرست، کلاهبرداری و جمع آوری داده‌ها ایجاد می‌کند.

ایویت کلارک، نماینده مجلس لایحه‌ای را ارائه کرد که گروه‌ها یا پویش‌های سیاسی را ملزم می‌کند تا استفاده از محتوای ایجاد شده توسط هوش مصنوعی در تبلیغات سیاسی را افشا کنند. این در حالی است که کارگروه ملی جمهوری خواه اولین تبلیغ خود را با محتوای تولید شده توسط هوش مصنوعی پس از اعلام نامزدی بایدن برای انتخابات ریاست جمهوری آمریکا منتشر کرد.

همچنین در این هفته، لینا خان، رئیس کمیسیون تجارت فدرال متعهد شد این آژانس در نظارت بر استفاده‌های ناعادلانه یا فریبنده از هوش مصنوعی هوشیار باشد.

بریتانیا و آمریکا در بحث رقابت برای توسعه فن آوری هوش مصنوعی مداخله کرده اند، بخش ناظر رقابتی هوش مصنوعی بریتانیا بررسی این بخش را آغاز کرد و همچنین کاخ سفید به شرکت های فن آوری در مورد مسئولیت اساسی خود برای توسعه محصولات ایمن توصیه نمود.
قانونگذاران تحت فشار فزاینده ای برای مداخله هستند، چرا که ظهور مولدهای زبانی مبتنی بر هوش مصنوعی مانند چت جی پی تی (ChatGPT) نگرانی هایی را در مورد گسترش بالقوه اطلاعات نادرست، افزایش تقلب و تاثیر بر بازار مشاغل ایجاد میکند و ایلان ماسک در میان نزدیک به ۳۰ هزار امضا کننده نامه ای که ماه گذشته منتشر شد ،خواستار توقف پروژه های مهم شد.

سازمان رقابت و بازارهای بریتانیا (CMA) اعلام کرد که به بررسی سیستم های اساسی یا مدل های بنیادی ابزارهای هوش مصنوعی خواهد پرداخت. یکی از کارشناسان حقوقی، بررسی هایی به عنوان یک پیش نیاز برای این بخش توصیف کرده است، یافته های این کارشناس ماه سپتامبر منتشر خواهد شد.
دولت آمریکا نیز اقداماتی را برای مقابله با خطرات توسعه هوش مصنوعی اعلام کرد؛ به طوری که کاملا هریس، معاون رئیس جمهور، با مدیران ارشد در خط مقدم پیشرفت های سریع این صنعت ملاقات کرد. کاخ سفید در بیانیه ای اعلام کرد شرکت هایی که این فن آوری را توسعه میدهند، مسئولیتی اساسی دارند تا پیش از گسترش یا عمومی شدن، از ایمن بودن محصولات خود مطمئن شوند.
این نشست یک هفته به طول انجامید و در جریان آن گروهی از دانشمندان و رهبران کسب وکار ،هشدارهایی را در مورد سرعت اختلال این فن آوری در صنایع مستقر صادر کردند.

جفری هینتون، پدرخوانده هوش مصنوعی، گوگل را ترک کرد تا آزادانه‌تر در مورد خطرات این فناوری صحبت کند، این در حالی است که سر پاتریک والانس، مشاور علمی سابق دولت بریتانیا با بیان اینکه تاثیر هوش مصنوعی بر مشاغل می تواند به بزرگی تاثیر انقلاب صنعتی باشد، از وزرا خواست تا از تغییرات عمیق اجتماعی و اقتصادی که می تواند توسط هوش مصنوعی ایجاد شود، جلوگیری کنند.

سارا کاردل میگوید هوش مصنوعی این پتانسیل را دارد که نحوه رقابت کسب وکارها را تغییر دهد؛ اما باید از مصرف کنندگان محافظت کرد.

مدیر اجرایی سازمان رقابت و بازارهای بریتانیا ( CMA) گفت: هوش مصنوعی در چند ماه گذشته به آگاهی عمومی نفوذ کرده است و مردم در برابر مسائلی مانند اطلاعات نادرست یا گمراه کننده محافظت میشوند.بسیار مهم است که مزایای بالقوه این فناوری متحول کننده به راحتی برای مشاغل و مصرف کنندگان بریتانیا قابل دسترسی باشد.
سرویس چت جی پی تی (ChatGPT) و رقیب گوگل یعنی بارد  (Bard) در پاسخ به درخواست های کاربران در معرض ارائه اطلاعات غلط هستند، در حالی که نگرانیهایی در مورد کلاهبرداری های صوتی مبتنی بر هوش مصنوعی مطرح شده است. سازمان ضد اطلاعات نادرست، نیوز گارد (NewsGuard) در این هفته اعلام کرد که چت بات هایی که وانمود میکنند روزنامه نگار هستند، تقریبا ۵۰ مزرعه مجهز به هوش مصنوعی را اداره مینمایند. ماه گذشته، آهنگی با آوازهای جعلی ساخته‌شده توسط هوش مصنوعی که ادعا میشد درک و ویکند  (Drake and the Weeknd)  هستند، از سرویس‌های استریم حذف شد.

در ایالات متحده، هریس با مدیران ارشد اوپن آی (OpenAI)، آلفابت و مایکروسافت در کاخ سفید دیدار کرد و اقداماتی را برای رسیدگی به خطرات توسعه بدون کنترل هوش مصنوعی مطرح کرد.در بیانیه ای پس از جلسه، هریس گفت که به مدیران اجرایی گفته است که بخش خصوصی مسئولیت اخلاقی، معنوی و قانونی برای تضمین ایمنی و امنیت محصولات خود را  بر عهده دارند.

دولت اعلام کرد که در هفت موسسه تحقیقاتی ملی جدید هوش مصنوعی سرمایه گذاری خواهد کرد تا پیشرفت های هوش مصنوعی را دنبال کند که قابل اعتماد، مسئولیت پذیر و در خدمت منافع عمومی هستند. توسعه هوش مصنوعی تحت سلطه بخش خصوصی است و صنعت فن آوری در سال گذشته ۳۲ مدل ماشین یادگیری قابل توجه تولید کرده است، در حالی که سه مدل توسط دانشگاه تولید شده است.

توسعه دهندگان برجسته هوش مصنوعی نیز با ارزیابی عمومی سیستم های خود در کنفرانس امنیت سایبری دیفکن 31 (Defcon 31)  امسال موافقت کرده اند.موسساتی که در این کنفرانس شرکت خواهند کرد شامل اوپن آی (OpenAI)، گوگل، مایکروسافت و هوش مصنوعی استابیلیتی (Stability)  میباشد.

همچنین به اتحادیه اروپا هشدار داده شد که باید از تحقیقات مردمی هوش مصنوعی محافظت نماید یا ریسک واگذاری کنترل توسعه فناوری به شرکت‌های آمریکایی را بپذیرد.اروپا نمیتواند حق حاکمیت هوش مصنوعی را از دست بدهد. حذف تحقیق و توسعه منبع باز، جامعه علمی و اقتصاد اروپا را به شدت به چند شرکت خارجی و اختصاصی برای زیرساخت های ضروری هوش مصنوعی وابسته خواهد کرد.

کریستف شوهمان، رهبر سازمانی در شرکت لایون  ( Laion)گفت: ما در حال کار روی هوش مصنوعی منبع باز هستیم، زیرا فکر می‌کنیم این نوع هوش مصنوعی ایمن‌تر، در دسترس‌تر و آزاد‌تر خواهد بود. منبع:  سایبربان

آغاز تحقیقات انگلیس درباره خطرات هوش مصنوعی

جمعه, ۱۵ ارديبهشت ۱۴۰۲، ۰۲:۴۰ ب.ظ | ۰ نظر

رگولاتور رقابت انگلیس تحقیقی درباره صنعت هوش مصنوعی آغاز کرده تا نگرانی های احتمالی مربوط به رقابت و حقوق مصرف کننده را برطرف کند.
به گزارش خبرگزاری مهر به نقل از رویترز، این درحالی است که مایکروسافت و گوگل حالت تدافعی نسبت به این فناوری دارند.

این تحقیق روی مدل های بنیادینی مانند مدل های زبانی بزرگ و هوش مصنوعی مانند ابزاری که شرکت اوپن آ. آی ابداع کرده، متمرکز است.

مدل های بزرگ زبانی سیستم های هوش مصنوعی هستند که با داده های عظیمی آموزش دیده اند تا زبان انسانی را دریابند و مانند انسان به سوالات پاسخ دهند.

هوش مصنوعی مولد به ابزارهایی اشاره دارد که به کاربران اجازه می دهد محتوای جدیدی براساس درخواست کاربران انسان بسازند.

این فناوری ها پتانسیل زیادی برای افزایش بهره وری انسان دارند و مدت زمان لازم برای ارائه یک کپی ساده جهت اهداف بازاریابی یا کد نویسی را کاهش می‌دهند.

با این وجود آنها سروصدای زیادی به پا کردند زیرا رگولاتورها از سرعت توسعه سیستم های هوش مصنوعی و استفاده از آن در بازار کار بیمناک هستند.

سازمان رقابت و بازارهای انگلیس در بیانیه ای اعلام کرد چگونگی چشم‌انداز رقابتی برای مدل‌های پایه و استفاده از آنها می‌تواند تکامل یابد، فرصت‌ها و خطراتی را که چنین سناریوهایی به همراه دارند، بررسی خواهد کرد و اصول راهنما را برای حمایت از رقابت و حمایت از مصرف‌کنندگان با توسعه مدل‌های پایه منتشر خواهد کرد.

سارا کاردل، مدیر ارشد اجرایی سازمان رقابت و بازارهای انگلیس در بیانیه‌ای اعلام کرد: هوش مصنوعی در چند ماه اخیر به آگاهی عمومی نفوذ کرده است اما ما از مدتی آن را تحت نظر داشتیم. این فناوری با سرعت در حال توسعه است و پتانسیل آن را دارد که شیوه رقابت کسب و کارها را تغییر دهد و همچنین رشد اقتصادی قابل توجهی را ایجاد کند.

اودر ادامه افزود: بسیار مهم است که مزایای بالقوه این فناوری به آسانی برای کسب‌وکارها و مصرف‌کنندگان بریتانیا قابل دسترسی باشد، و از سوی دیگر از مردم در مقابل مواردی مانند اطلاعات نادرست یا گمراه‌کننده محافظت شود.

این سازمان دیدگاه ها و شواهد را تا مهلت ۲ ژوئن بررسی خواهد کرد. پس از آن، رگولاتورها گزارشی درباره یافته های آن در سپتامبر منتشر می کنند.

قوانین جدید چین برای محدودسازی هوش مصنوعی

چهارشنبه, ۱۳ ارديبهشت ۱۴۰۲، ۱۰:۳۲ ب.ظ | ۰ نظر

به دنبال اعمال محدودیت به منظور مهار توسعه سریع ابزارهای هوش مصنوعی مولد در سراسر جهان، سازمان ناظر بر اینترنت چین نیز مجموعه قوانین جدیدی برای شرکت‌هایی که خدماتی مشابه ChatGPT ارائه می‌دهند را معرفی کرده است.

به گزارش خبرگزاری صدا و سیما؛  طبق مقررات پیشنهادی که توسط اداره فضای سایبری چین (CAC) منتشر شده است، شرکت‌هایی که خدمات مولد هوش مصنوعی در این کشور ارائه می‌کنند باید اقداماتی را به منظور جلوگیری از نشر محتوای تبعیض‌آمیز، اطلاعات نادرست و محتوایی که به حریم خصوصی شخصی یا مالکیت معنوی آسیب می‌زند، انجام دهند.

CAC در بیانیه‌ای اعلام کرد که کسب و کارها باید مطمئن شوند که خدماتشان به ارزش‌های سوسیالیستی چین احترام گذاشته و محتوایی تولید نکنند که حاکی از براندازی رژیم، ترویج خشونت و غیراخلاقی بوده یا نظم اقتصادی و اجتماعی را مختل کند. سازمان ناظر بر اینترنت چین معتقد است که طبق مقررات سال ۲۰۱۸ این کشور،‌ تمام محصولات مولد هوش مصنوعی باید قبل از ارائه به عموم، توسط CAC مورد ارزیابی امنیتی قرار بگیرد.

هوش مصنوعی مولد که محتوایی بر اساس پیام‌های متنی، تصویری یا صوتی ایجاد می‌کند، پس از راه‌اندازی ربات مکالمه ChatGPT توسط شرکت آمریکایی OpenAI، در چین توجهات را خود جلب کرده است، اما از آنجایی که در این کشور ChatGPT در دسترس قرار ندارد، شرکت‌های داخلی برای راه‌اندازی فناوری‌هایی مشابه آن به رقابت پرداخته‌اند. بیدو ماه گذشته از هوش مصنوعی Ernie Bot رونمایی کرد و علی‌بابا هم Tongyi Qianwen را به عنوان هوش مصنوعی مولد خود معرفی کرد. با این حال، افزایش علاقه به هوش مصنوعی مولد مقامات چینی را بر آن داشته که خطرات این حوزه را زیر نظر داشته باشند.

سایر کشورها نیز در حال بررسی مقررات مربوط به هوش مصنوعی مولد هستند. وزارت بازرگانی آمریکا و اتحادیه در حال ارزیابی چگونگی سیاست گذاری در این زمینه هستند و ایتالیا هم اولین کشور غربی بود کهChatGPT را به دلیل نگرانی‌هایی در خصوص حفظ حریم خصوصی ممنوع اعلام کرد. CAC در حال ارزیابی بازخوردها درمورد قوانین پیشنهادی خود در زمینه هوش مصنوعی مولد تا ۱۰ می (۲۰ اردیبهشت) است.

هوش مصنوعی نسل بشر را نابود می‌کند

چهارشنبه, ۱۳ ارديبهشت ۱۴۰۲، ۱۰:۱۰ ب.ظ | ۰ نظر

یک فیزیک دان در سال‌های پایانی زندگی خود هشدار داد که هوش مصنوعی می‌تواند به معنای پایان نسل بشر باشد.
به گزارش باشگاه خبرنگاران مدت‌ها قبل از اینکه ایلان ماسک و استیو وازنیک بنیانگذار اپل نامه‌ای در مورد خطرات عمیق هوش مصنوعی برای بشریت را امضا کنند، استیون هاوکینگ فیزیکدان، زنگ خطر را در مورد این فناوری به سرعت در حال تکامل به صدا درآورده بود.

هاوکینگ در مصاحبه‌ای در سال ۲۰۱۴ گفت: توسعه هوش مصنوعی کامل می‌تواند پایان نسل بشر باشد.

هاوکینگ که بیش از ۵۵ سال از بیماری اسکلروز جانبی آمیوتروفیک (ALS) رنج می‌برد، سال ۲۰۱۸ در سن ۷۶ سالگی درگذشت. اگرچه او اظهارات انتقادی در مورد هوش مصنوعی داشت، اما از شکل بسیار ابتدایی این فناوری برای برقراری ارتباط استفاده کرد. بیماری او، عضلات را ضعیف می‌کرد و هاوکینگ را مجبور به استفاده از ویلچر کرد. او در سال ۱۹۸۵ دیگر قادر به صحبت کردن نبود و به روش‌های مختلفی برای برقراری ارتباط متکی بود، از جمله دستگاه تولید کننده گفتار که توسط اینتل اداره می‌شد و به او اجازه می‌داد از حرکات صورت برای انتخاب کلمات یا حروفی که با گفتار ترکیب می‌شوند استفاده کند.

هاوکینگ گفت که اشکال بسیار ابتدایی هوش مصنوعی قبلاً قدرتمند بوده‌اند، اما ایجاد سیستم‌هایی که با هوش انسانی رقابت می‌کنند یا از آن پیشی می‌گیرند می‌تواند برای نسل بشر فاجعه‌بار باشد.

او در کتاب خود ذکر کرده که رایانه‌ها احتمالاً در عرض ۱۰۰ سال از انسان‌ها در هوش پیشی خواهند گرفت. او نوشت: ما ممکن است با یک انفجار اطلاعاتی مواجه شویم که در نهایت منجر به ماشین‌هایی می‌شود که هوش آن‌ها بیش از هوش ما است.

او استدلال کرد که کامپیوتر‌ها باید برای هماهنگی با اهداف انسانی آموزش ببینند و افزود که جدی نگرفتن خطرات مرتبط با هوش مصنوعی می‌تواند بدترین اشتباه ما باشد.

اظهارات هاوکینگ بازتاب نگرانی‌های امسال غول فناوری، ایلان ماسک و استیو وزنیاک، بنیانگذار اپل است. این دو رهبر فناوری، همراه با هزاران متخصص دیگر، نامه‌ای را امضا کردند و در آن خواستار توقف حداقل شش ماهه ساخت سیستم‌های هوش مصنوعی قدرتمندتر از ربات گفت و گوی چت‌جی‌پی‌تی شدند.

علی‌رغم درخواست‌ها برای توقف تحقیقات در آزمایشگاه‌های هوش مصنوعی که بر روی فناوری‌هایی که از GPT-۴ پیشی می‌گیرند، انتشار این سیستم نقطه عطفی بود و شرکت‌های مختلف را وادار کرد تا در ساخت سیستم‌های هوش مصنوعی با هم رقابت کنند.

به گفته مدیر آژانس سیستم‌های اطلاعات دفاعی، هوش مصنوعی مولد، می تواند هکرها را پیچیده‌تر کرده و در نهایت سطح پادمان‌های ایالات متحده را بالا ببرد.
به گزارش سایبربان، ژنرال رابرت اسکینر، مدیر آژانس سیستم های اطلاعات دفاعی (DISA)، می گوید که این فناوری یکی از مخرب ترین پیشرفت هایی است که او در مدت طولانی دیده است و پیامدهای امنیتی جدی دارد. هشدار مشابهی توسط راب جویس، رئیس امنیت سایبری آژانس امنیت ملی، در اوایل سال جاری صادر شده بود.
اسکینر در 2 می در کنفرانس سایبری ای اف سی ای ای تک نت (AFCEA TechNet) در بالتیمور گفته بود: کسانی که از هوش مصنوعی استفاده می‌کنند، و می‌توانند بفهمند که چگونه می‌توانند به بهترین شکل از آن استفاده کنند، اما همچنین چگونه می‌توانند به بهترین شکل در برابر آن محافظت شوند، همانهایی هستند که از موقعیت بالایی برخوردار هستند. ما در این اتاق به این فکر می‌کنیم که چگونه این امر در امنیت سایبری اعمال می‌شود. چگونه در مورد هوش کاربرد دارد؟ چگونه آن را در مورد توانایی های جنگی خود اعمال می کنیم؟

هوش مصنوعی مولد در ماه‌های اخیر توسط چت جی پی تی اوپن ای آی (ChatGPT OpenAI) که بیش از 1 میلیون کاربر را در عرض یک هفته پس از راه‌اندازی خود جذب کرد، محبوب شد. سام آلتمن، مدیر عامل اوپن ای آی، در ماه مارس به خبرگزاری ای بی سی نیوز (ABC News) گفته بود که نگران این است که چگونه این مدل‌ها می‌توانند برای اطلاعات نادرست گسترده استفاده شوند و برای حملات سایبری متجاوزانه، مورد استفاده قرار گیرند.
اسکینر در روز سه‌شنبه پیش‌بینی کرد که هوش مصنوعی مولد ابزار مهمی برای "دشمنان رده بالا" نخواهد بود. در عوض، این فناوری به یک دسته کامل از افراد دیگر کمک می کند تا با روشی بسیار سریع تر به آن سطح برسند.
او می گوید: پس چگونه سیستم های حفاظتی، امنیتی و قابلیت های شبکه برای حمایت از حفاظت از آن داده ها و حمایت از مردم خود را داریم؟

ایالات متحده، چین و روسیه را تهدیدهای درجه یک در دنیای مجازی می داند. بر اساس استراتژی امنیت سایبری دولت بایدن که وعده استفاده از تمام ابزارهای قدرت ملی برای دفع رفتارهای نادرست سایبری را داده بود، دیگر دشمنان ایران و کره شمالی هستند.
تسلط بر هوش مصنوعی کلیدی برای پایداری رقابت بین‌المللی در بخش‌های دفاعی، مالی و سایر بخش‌ها است. حداقل 685 پروژه هوش مصنوعی، از جمله چندین پروژه مرتبط با سیستم‌های تسلیحاتی بزرگ، تا اوایل سال 2021 در پنتاگون در حال اجرا بودند که البته این بر اساس آخرین آمار عمومی است.
آژانس سیستم‌های اطلاعات دفاعی در سال مالی جاری، هوش مصنوعی مولد را به فهرست نظارت بر فناوری خود اضافه کرد. موجودی موضوعات و تجهیزات پیشرفته که هر شش ماه یا بیشتر به روز می شد، در گذشته دارای 5G، محاسبات لبه و دسترسی و حضور از راه دور بود.

قوانین کشور با هوش مصنوعی تنقیح شد

سه شنبه, ۱۲ ارديبهشت ۱۴۰۲، ۰۵:۲۹ ب.ظ | ۰ نظر

رییس مرکز پژوهش های مجلس از راه اندازی فاز نخست سامانه هوشمند تنقیح قوانین در این مرکز خبر داد و گفت: این اقدام برای نخستین بار پس از ۶ دهه با راستی آزمایی ۹۹ درصدی صورت گرفته است.
به گزارش روابط عمومی مرکز پژوهش‌های مجلس شورای اسلامی، بابک نگاهداری در خصوص اهمیت تنقیح قوانین در کشور، گفت: برمبنای تاکیدات مقام معظم رهبری در خصوص امنیت قضایی و سیاست‌های کلی ابلاغی در خصوص نظام قانونگذاری در سال ۱۳۹۸ و تاکید قانون تدوین و تنقیح قوانین و مقررات مصوب ۱۳۸۹، مرکز پژوهش‌های مجلس با آسیب‌شناسی و بررسی خبرگانی در خصوص نظام قانونگذاری کشور، از سال ۱۴۰۰ به دستور ریاست محترم مجلس یازدهم، پروژه هوشمندسازی تنقیح قوانین و مقررات را به صورت دانش‌بنیان و با رویکرد امکان‌سنجی و بایسته‌سنجی این مهم در دستور کار خود قرار داد.

وی در خصوص روند تاریخی تنقیح قوانین و اهمیت این موضوع در کشور، توضیح داد: موضوع تنقیح قوانین از دهه ۴۰ شمسی به صورت رسمی توسط اداره حقوقی قوه قضاییه و سپس در دهه ۵۰ در سازمان تنقیح قوانین و مقررات کشور و پس از انقلاب نیز در معاونت حقوقی ریاست جمهوری و معاونت قوانین مجلس از سال ۱۳۸۹ در نظام حقوقی کشور مطرح و مورد توجه قرار گرفت که در مسیر کار چالش‌هایی اساسی در این زمینه به وجود آمد که مرکز پژوهش‌های مجلس را نسبت به تعریف پروژه‌ای در این زمینه مصمم‌تر کرد.

رییس مرکز پژوهش‌های مجلس درخصوص آغاز روند کار تنقیح قوانین در مرکز پژوهش‌های مجلس، یادآور شد: مرکز پژوهش‌های مجلس در گام نخست ضمن بررسی و تحلیل تمامی مطالعات داخلی صورت گرفته و مطالعات خبرگانی در این خصوص که به صورت مجزا در قالب ۴ جلد کتاب در حال انتشار است، هدف‌گذاری خود را بر ارائه الگوی نوینی در مسیر تنقیح قوانین و مقررات قرار داد.

نگاهداری در خصوص الگوی مرکز پژوهش‌های مجلس در امر تنقیح قوانین، خاطرنشان کرد: با توجه به تعداد زیاد و تراکم قوانین و مقررات در کشور، فصل نوین این مرکز در تنقیح قوانین، استفاده از هوش مصنوعی به عنوان دستیار یا جایگزین هوش انسانی  بوده است که این امر صرفه‌جویی قابل توجهی در نیروی انسانی و کارشناسی به همراه داشته است.

وی در تشریح مشکلات سامانه‌های مختلف قوانین کشور، گفت: در حال حاضر سامانه‌های مختلف کشور به صورت کاملا دستی فرایند ورود اطلاعات و در نهایت تنقیح را طی می‌نمایند که در نتیجه باعث اتلاف بسیار زیاد نیروی انسانی و بروز نقص اطلاعاتی به علت حجم زیاد قوانین و مقررات شده است، همچنین مشکلات متعددی چون عدم بهره‌گیری از تکنیک‌های هوشمند در کلیه مراحل ورود اطلاعات و افزایش قابلیت‌ها، نبود رویه واحد در کدگذاری، عدم جامعیت موضوعات حقوقی، غیرتعاملی بودن با کاربران و مخاطبین، عدم شمول فرآیند تصویب طرح‌ها و لوایح، عدم شمول نسخ ضمنی و عدم شمول قوانین جامع، وجود دارد.

نگاهداری در خصوص روند انجام تنقیح قوانین با استفاده از هوش مصنوعی، عنوان کرد: این موضوع در طول سال ۱۴۰۱ توسط یک تیم پژوهشی متشکل از متخصصین حقوقی سامانه‌های قوانین و مقررات و هوش مصنوعی به نحوی برنامه‌ریزی شد که ضمن تدوین نظری و بومی الگوی هوش مصنوعی در نظام تنقیح و قوانین بتواند در قالب محصول آموزشی و پژوهشی به عنوان کتاب بایسته‌ها و لوازم استفاده از هوش مصنوعی در نظام تنقیح قوانین و مقررات را طراحی کند که این کتاب به زودی چاپ و در اختیار جامعه علمی کشور قرار خواهد گرفت.

وی ادامه داد: مرکز پژوهش‌های مجلس از سال ۱۴۰۱ افق اجرای الگوهای استخراج شده را در قالب سامانه هوشمند مدنظر قرار داده است و با ایجاد سامانه‌ای، تنقیح قوانین و مقررات را به صورت هوشمند طراحی کرده است.

رییس مرکز پژوهش‌های مجلس یکی از شاخصه‌های این سامانه را استفاده از نظرات خبرگان و مردم در خصوص طرح‌ها و لوایح برشمرد و تصریح کرد: در فاز نخست این پروژه مبتنی‌بر بانک داده‌ قوانین و مقررات مرکز پژوهش‌های مجلس با وجود چالش‌ها، نواقص و مشکلات متعدد، الگوی استخراج شده در امر تنقیح قوانین و مقررات به صورت آزمایشی اجرا و خروجی‌های آن مورد ارزیابی قرار گرفته است.

نگاهداری خاطرنشان کرد: از جمله خروجی‌های مهم فاز نخست می‌توان به استخراج تمامی نسخ‌های صریح در قوانین، استخراج تمامی موارد با انقضای زمان، استخراج موارد نسخ ضمنی، ۳ کد از عناوین قوانین جامع شامل کدهای ثبت، ‌تجارت و مبارزه با مفاسد با ضریب تطبیق استخراج شده با موارد دستی به صورت مناسب اشاره کرد.

وی نخستین گام در تنقیح قوانین و مقررات را تدوین و جمع آوری آنها برشمرد و گفت: در فاز نخست این پروژه مبتنی بر بانک داده قوانین و مقررات مرکز پژوهش های مجلس شورای اسلامی،  به صورت فایل متنی در پایگاه آزمایشی داده، ذخیره و جمع‌آوری شده است. این سیستم بر اساس پردازش متن و جستجوی متون برنامه‌ریزی و طراحی شده است تا بتواند با بازیابی واژگان و تحلیل و ارتباط‌دهی آنها در ایجاد نمودار درختی آنها را انجام دهد.

وی ادامه داد: گام‌های بعدی هوشمندسازی سامانه تنقیح قوانین بخش‌هایی چون طراحی مدل کدگذاری هوشمند کلیه قوانین، ارائه مدل نسخ ضمنی برای همه کدها، طراحی سامانه جامع هوشمند و تعاملی قوانین، تطبیق هوشمند طرحها و لوایح با قوانین و طراحی مدل تنظیم هوشمند قوانین جامع، شامل می‌شود.

نگاهداری تاکید کرد: پس از حدود دو سال کار پژوهشی در زمینه تنقیح قوانین با هوش مصنوعی، خروجی کار بیانگر آن است که این مهم به صورت کارا و عملیاتی صورت پذیرفته است.

رییس مرکز پژوهش‌های مجلس با بیان اینکه فاز نخست تنقیح قوانین با ۹۹ درصد نتیجه درست همراه بوده است، گفت: خروجی های فاز نخست پروژه هوشمندسازی تنقیح قوانین که در آن ۱۷۰۴ قانون بر اساس بانک قوانین مرکز پژوهش‌های مجلس شورای اسلامی، ساختار بندی و کدگذاری شده است، نشان می‌دهد که ۲۸۰۱ مورد نسخ صریح کلی قوانین، ۱۶۲۵ مورد نسخ صریح جزیی قوانین، ۷۶ مورد قوانین آزمایشی، ۴۴۷ مورد قوانین موقت، ۱۹۱ مورد قوانین مدت منقضی اعلامی در قوانین تنقیحی و ۳۳ مورد قوانین تمدید شده هستند. همچنین آمار تنقیح ضمنی هوشمند نشان می‌دهد ۹۰ مورد با اجرا منتفی، ۳ مورد موضوع منتفی، ۱۳ مورد نسخ ضمنی تفاسیر، ۶۸ مورد نسخ ضمنی آیین‌نامه اجرایی، ۷۰ مورد نسخ ضمنی قوانین فرعی با قاعده نسخ صریح قانون اصلی و ۱۸ مورد نسخ ضمنی تایید شده سه کد آزمایشی، را نشان می‌دهد.

وی ادامه داد: نکته مهم دیگر این است که رسیدن به مدل بومی و مناسب در نظام حقوقی ایران در این زمینه تا پیش از این در مجامع علمی، مورد توجه نبوده است و اکنون می‌توان گفت خروجی‌های چندگانه این پروژه در قالب‌ کتاب‌هایی به زودی منتشر خواهد شد و این مهم می‌تواند نخستین گام‌ها در مسیر پیش روی نظام حقوقی ایران باشد.

رییس مرکز پژوهش‌های مجلس در پایان، خاطرنشان کرد: سامانه طراحی شده تنقیح قوانین و مقررات کشور با استفاده از هوش مصنوعی در سال ۱۴۰۲ تکمیل خواهد شد و امیدواریم تا این دستاورد بتواند در زمینه حکمرانی مشارکتی در قانونگذاری و افزایش سرعت و دقت در امر قوانین و مقررات و کدگذاری هوشمند در این زمینه موثر باشد.

پشیمانی پدرخوانده هوش مصنوعی از کرده‌اش

دوشنبه, ۱۱ ارديبهشت ۱۴۰۲، ۰۴:۳۷ ب.ظ | ۰ نظر

جفری هینتون از تلاش‌هایی که در زمینه توسعه هوش مصنوعی انجام داده است، اظهار پشیمانی کرد.
به گزارش آنا، «جفری هینتون» که به پدرخوانده هوش مصنوعی معروف است، در مصاحبه جدیدی می‌گوید در بخشی از وجود خود به خاطر کار‌هایی که انجام داده است، احساس پشیمانی می‌کند. او به‌تازگی از گوگل خارج شده است تا بتواند بی‌واهمه درباره ریسک‌های هوش مصنوعی صحبت کند.

هینتون که بیش از یک دهه در گوگل کار می‌کرد، درباره تلاش‌های گذشته خود می‌گوید: «به خودم با این بهانه رایج دلداری می‌دهم که اگر من این کار را نمی‌کردم، شخص دیگری آن را انجام می‌داد. به‌سختی می‌توان فهمید که چگونه می‌شود جلوی افراد خرابکار را گرفت تا از این فناوری برای کار‌های مخرب استفاده نکنند.»

هینتون در ماه گذشته میلادی از گوگل استعفا داد و پنج‌شنبه هفته پیش گفت‌وگوی مستقیمی با «ساندار پیچای» مدیرعامل این شرکت داشت. جزئیات این گفتگو محرمانه باقی مانده است. هینتون زمانی به گوگل پیوست که این غول دنیای فناوری شرکت او و دو دانشجویش را خرید. یکی از این دانشجویان حالا به دانشمندان ارشد OpenAI تبدیل شده است.

هینتون و دانشجویانش یک شبکه عصبی ساختند که به خودش یاد می‌داد چگونه پس از تحلیل هزاران تصویر باید اشیایی مثل سگ‌ها، گربه‌ها و گل‌ها را شناسایی کند. همین شبکه درنهایت منجر به ساخت ابزار‌هایی مثل ChatGPT و بارد گوگل شد.

پدرخوانده هوش مصنوعی می‌گوید تا زمانی که مایکروسافت بینگ جدید را با هوش مصنوعی معرفی کرد، از شیوه برخورد گوگل با این فناوری راضی بود. اما با این اقدام، گوگل هم وارد وضعیت قرمز شد تا پاسخی به رقیب خود بدهد. هینتون می‌گوید چنین رقابت شدیدی بین غول‌های فناوری می‌تواند توقف‌ناپذیر باشد و جهانی را به‌وجود بیاورد که پر از تصاویر و نوشته‌های جعلی خواهد بود و هیچ‌کس دیگر نمی‌تواند واقعیت را تشخیص دهد.

بزرگ‌ترین نگرانی حال حاضر برای هینتون مسئله اطلاعات گمراه‌کننده است. اما در بلندمدت او از بابت حذف شغل‌های تکراری و احتمالاً نابودی بشریت هم نگران است. انقراض بشریت که او قبلاً هم احتمال آن را مطرح کرده بود، زمانی اتفاق خواهد افتاد که هوش مصنوعی بتواند خودش کد برنامه‌هایش را بنویسد و اجرا کند.

هینتون می‌گوید خیلی‌ها ازجمله خود او تصور می‌کردند که هوش مصنوعی تا حدود ۳۰ تا ۵۰ سال دیگر از انسان‌ها باهوش‌تر نخواهد شد، اما او حالا دیگر چنین اعتقادی ندارد.