ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

  عبارت مورد جستجو
تحلیل وضعیت فناوری اطلاعات در ایران

۳۸۴ مطلب با کلمه‌ی کلیدی «هوش مصنوعی» ثبت شده است

تحلیل


قوانین ملایم ژاپن برای هوش مصنوعی

سه شنبه, ۱۳ تیر ۱۴۰۲، ۰۴:۳۲ ب.ظ | ۰ نظر

ژاپن قوانین ملایم تری در مورد استفاده از هوش مصنوعی نسبت به اتحادیه اروپا دارد.
به گزارش سایبربان، یک مقام آگاه گفت که ژاپن قوانین ملایم تری نسبت به اتحادیه اروپا جهت استفاده از هوش مصنوعی (AI)دارد، زیرا به دنبال این فناوری برای تقویت رشد اقتصادی و تبدیل آن به یک رهبری میباشد.

این مقام که نخواست نامش فاش شود،گفت : هدف این است که تا پایان سال رویکردی برای هوش مصنوعی ایجاد شود. در این صورت به نگرش ایالات متحده نزدیک‌تر و ملایم تر از قوانین سختگیرانه اتحادیه اروپا میباشد.

رویکرد ملایم تر ژاپنی ها میتواند تلاش های اتحادیه اروپا برای وضع قوانین خود به عنوان یک معیار جهانی ، با الزاماتی مانند افشای مطالب دارای حق کپی رایت توسط شرکت‌ها برای آموزش سیستم‌های هوش مصنوعی که محتواهایی مانند متن و گرافیک تولید می‌کنند، بی نتیجه کند.

تیری برتون، رئیس صنعت اتحادیه اروپا این هفته به توکیو سفر میکند تا رویکرد این اتحادیه را در زمینه قانون گذاری هوش مصنوعی و همچنین تعمیق همکاری در زمینه نیمه رسانا ها ارتقا دهد.

پروفسور یوتاکا ماتسوئو ، رئیس شورای استراتژی هوش مصنوعی دانشگاه توکیو، قوانین اتحادیه اروپا را کمی بیش از حد سخت گیرانه خواند و گفت که مشخص کردن مطالب دارای حق کپی رایت مورد استفاده برای یادگیری عمیق، تقریباً غیرممکن است. 

ماتسوئو در ادامه افزود : در اتحادیه اروپا، موضوع ترویج نوآوری کم‌رنگ‌تر بوده و بیشتر در مورد مسئولیت پذیری شرکت‌های بزرگ است.

پیشرفت در هوش مصنوعی مولد توسط شرکت‌هایی مانند اوپن‌اِی‌آی (Open AI) با حمایت مایکروسافت، به دلیل پتانسیل تغییر تجارت به طور کلی هیجان و نگرانی را برانگیخته است.

 برتون گفت: چیزهایی وجود دارند که واقعا نگران کننده هستند و من فکر میکنم این چیزها احتمالاً باید برای هر دموکراسی نگران کننده باشد.

برتون درباره رویکرد نظارتی اتحادیه اروپا گفت: مهم است آنچه را که انجام دادیم، توضیح دهیم. برای ژاپن، هوش مصنوعی می‌تواند به مقابله با کاهش جمعیت و کمبود نیروی کار کمک کند. همچنین میتواند تقاضا برای تراشه‌های پیشرفته‌ را به عنوان بخشی از یک سیاست صنعتی با هدف بازپس‌گیری برتری از دست رفته ژاپن در فناوری، تحریک کند.

به گفته کارشناسان، توان محاسباتی ژاپن برای پردازش واحدهای گرافیکی جی پی یو (GPU) مورد استفاده برای آموزش هوش مصنوعی ، بسیار کمتر از آمریکا است.

پروفسور ماتسوئو گفت: اگر ژاپن ظرفیت تولید جی پی یو ها (GPU) را تا ۱۰ برابر افزایش دهد، احتمالاً هنوز هم کمتر از چیزی خواهد بود که OpenAI در دسترس دارد.

تجارت پرسود حساب‌‌های مسروقه ChatGPT

سه شنبه, ۱۳ تیر ۱۴۰۲، ۱۲:۴۷ ب.ظ | ۰ نظر

محمدرضا بهنام رئوف – بر اساس گزارش بخش تحقیقات‌ چک‌پوینت (CPR)، تجارت حساب‌های مسروقه ChatGPT Premium به شدت افزایش یافته است. موضوعی که به مجرمان سایبری، امکان می‌دهد محدودیت‌های ژئوفِنسینگ یا حصارهای جغرافیایی OpenAI را دور بزنند و دسترسی نامحدود به ChatGPT داشته باشند.

آموخته‌های مایکروسافت از جنگ اوکراین

سه شنبه, ۶ تیر ۱۴۰۲، ۰۲:۳۰ ب.ظ | ۰ نظر

آسیه فروردین – با گسترش تهدیدات دیجیتال در جهان، دور نگه‌داشتن خودمان از این فضا سخت‌تر می‌شود. اکنون جنگ‌ها، هم در زمین و هم در فضای مجازی صورت می‌گیرد. در این میان فناوری‌های جدید هوش مصنوعی می‌توانند به دفع حملات سایبری کمک کنند یا در غیاب مقررات وضع‌شده در آینده، یاریگر بازیگران بد در این حوزه باشند!

آینده بهداشت و درمان با هوش مصنوعی

دوشنبه, ۵ تیر ۱۴۰۲، ۰۵:۵۰ ب.ظ | ۰ نظر

ارائه دهندگان مراقبت‌های بهداشتی در بعضی کشور‌های جهان، برای بهبود خدمات خود از فناوری‌های هوشمند مانند هوش مصنوعی استفاده می‌کنند .

به گزارش مفدا، هوش مصنوعی مولد این ظرفیت را دارد که با ارائه راه حل‌های نوآورانه برای تشخیص، درمان و مراقبت از بیمار، بخش مراقبت‌های بهداشتی را متحول کند. توانایی الگوریتم‌های هوش مصنوعی مولد برای یادگیری از داده‌های انبوه، فرصت‌های شگفت انگیزی را برای بهبود نتایج مراقبت‌های بهداشتی، پیش روی ما می‌گذارد.

استفاده از هوش مصنوعی مولد در مراقبت‌های بهداشتی و ادغام آن با نظام بهداشت و درمان نیز چالش‌ها و خطرات بسیاری را به همراه دارد که باید به آن توجه شود. 
ارائه دهندگان خدمات حوزه بهداشت و درمان و شرکت‌های علوم و تحقیقات زیستی هم اکنون از چندین مدل هوش مصنوعی استفاده می‌کنند. دسته‌های اصلی این برنامه‌های مبتنی بر هوش مصنوعی شامل توصیه کننده‌های تشخیص و درمان، سیستم‌های یادآوری بیمار و فعالیت‌های اداری است. اگرچه موارد زیادی وجود دارد که در آن‌ها هوش مصنوعی می‌تواند وظایف مراقبت‌های بهداشتی را به خوبی یا بهتر از انسان‌ها انجام دهد، عوامل پیاده سازی این خدمات زمان قابل توجهی می‌برد. 

 

* کاربرد‌های هوش مصنوعی مولد در مراقبت‌های بهداشتی

۱. تصویربرداری و تشخیص پزشکی: هوش مصنوعی مولد می‌تواند تصاویر پزشکی مانند اشعه ایکس، ام آر آی و سی تی اسکن را برای کمک به تشخیص تجزیه و تحلیل کند. الگوریتم‌های هوش مصنوعی مولد با یادگیری از تعداد وسیعی از تصاویر پزشکی، می‌توانند الگو‌ها و ناهنجاری‌هایی را که ممکن است توسط ناظران انسانی نادیده گرفته شود، شناسایی کنند. این امر می‌تواند منجر به تشخیص سریع‌تر و دقیق‌تر شود، به ویژه در مواردی که تخصص محدود یا کمیاب است.

۲. کشف و ارتقا داروها: هوش مصنوعی مولد می‌تواند به کشف و توسعه دارو‌های جدید کمک کند. با تجزیه و تحلیل پایگاه‌های داده بزرگ ساختار‌های مولکولی، الگوریتم‌های هوش مصنوعی مولد می‌تواند داروی جدیدی با خواص خاص تولید کند یا بیماری‌های خاصی را هدف قرار دهد. این روند کشف دارو را تسریع می‌کند و به طور بالقوه منجر به درمان‌های مؤثرتری برای بیماری‌ها و مشکلات مختلف بدن می‌شود.

۳. شخصی سازی اطلاعات پزشکی: هوش مصنوعی مولد می‌تواند داده‌های فردی بیمار، از جمله اطلاعات ژنتیکی، سابقه پزشکی و عوامل سبک زندگی را تجزیه و تحلیل کند تا توصیه‌های درمانی شخصی‌سازی شده را ارائه دهد. الگوریتم‌های هوش مصنوعی مولد، با در نظر گرفتن طیف وسیعی از متغیر‌ها قادر است به ارائه‌دهندگان مراقبت‌های بهداشتی کمک کند تا برنامه‌های درمانی را برای بیماران به صورت جداگانه تنظیم و نتایج را بهینه کرده و اثرات نامطلوب را به حداقل برسانند.

۴. دستیاران مجازی و نظارت بر بیمار: دستیار‌های مجازی مولد مبتنی بر هوش مصنوعی می‌توانند با بیماران تعامل داشته باشند، به سؤالات پاسخ دهند، یادآوری‌های دارویی ارائه دهند و پشتیبانی ارائه دهند. علاوه بر این، هوش مصنوعی مولد می‌تواند داده‌های بیمار را در زمان واقعی نظارت کند، ناهنجاری‌ها را شناسایی کرده و به متخصصان مراقبت‌های بهداشتی در مورد مشکلات احتمالی هشدار دهد. این امر، نظارت از راه دور بیمار را تسهیل می‌کند و مراقبت کلی از بیمار را بهبود می‌بخشد. این مسئله برای بیمار هم مزایای بسیاری، مانند کاهش رفت و آمد در شرایط ناخوشایند جسمانی و گرفتن اطلاعات دقیق بدون نیاز به مراجعه حضوری را دارد.

 

* خطرات احتمالی هوش مصنوعی مولد در مراقبت‌های بهداشتی

۱. حریم خصوصی و امنیت داده‌ها: استفاده از هوش مصنوعی مولد در مراقبت‌های بهداشتی به معنی مجوز دادن به این فناوری برای جمع آوری و تجزیه و تحلیل حجم زیادی از داده‌های حساس بیمار است. حفاظت از این داده‌ها از دسترسی غیرمجاز، اطمینان حفظ حریم خصوصی و اطمینان از سوء استفاده نکردن صاحبان این فناوری بسیار مهم است. سازمان‌های مراقبت‌های بهداشتی باید اقدامات امنیتی قوی، از جمله رمزگذاری، کنترل‌های دسترسی و روش‌های ناشناس‌سازی داده‌ها را برای محافظت از اطلاعات بیمار اجرا کنند.

۲. سوگیری و تکرار اشتباهات سابق: الگوریتم‌های هوش مصنوعی مولد می‌توانند به‌طور ناخواسته سوگیری‌ها و اشتباه‌های موجود در داده‌هایی را که روی آن‌ها آموزش دیده‌اند، تداوم بخشند. به عبارت دیگر هوش مصنوعی مانند انسان از اشتباهات سابق درس نمی‌گیرد.
این می‌تواند منجر به رفتار نابرابر شود و نابرابری‌های موجود در مراقبت‌های بهداشتی را تشدید کند. اطمینان حاصل کردن از وجود منابع متعدد و متنوع داده‌ها در روند آموزش هوش مصنوعی و پایبندی این فناوری جدید به دستورالعمل‌های اخلاقی، برای اطمینان از کاهش تعصب و برقراری عدالت در نتایج مراقبت‌های بهداشتی امری ضروری و حائز اهمیت است.

۳. انطباق با مقررات: ادغام هوش مصنوعی مولد در نظام بهداشت و درمان ممکن است باعث ایجاد برخی چالش‌های نظارتی شود. سازمان‌های مراقبت‌های بهداشتی باید از مقرراتی مانند مقررات حفاظت از داده‌های عمومی (GDPR) و قانون قابلیت حمل و پاسخگویی بیمه سلامت (HIPAA) پیروی کنند. نهاد‌های نظارتی همه کشور‌ها باید اطمینان حاصل کنند که رضایت مناسب از بیماران گرفته شده و استفاده از داده‌ها با استاندارد‌های قانونی و اخلاقی آن کشور، مطابقت دارد.

۴. شفافیت و توضیح پذیری: الگوریتم‌های مولد هوش مصنوعی، درک فرآیند تصمیم گیری آن را دشوار می‌کنند. در مراقبت‌های بهداشتی، جایی که تصمیم‌ها می‌توانند پیامد‌های حیاتی داشته باشند، اطمینان از شفافیت و توضیح‌پذیر بودن فرایند تصمیم گیری بسیار مهم است.

توسعه دهندگان هوش مصنوعی باید در نسخه‌های بعدی تلاش خود را برای قابل تفسیر شدن و ایجاد دستورالعمل‌های روشن و شفاف برای توضیح استدلال پشت توصیه‌های پزشکی هوش مصنوعی، افزایش دهند.

با توجه به اینکه هوش مصنوعی نقش مهمی در ارائه خدمات بهداشتی آینده دارد، آشنایی با تمام ابعاد آن از ضروریات است. دقت بالای هوش مصنوعی مولد باعث افزایش ضریب دقت در روند توسعه علم پزشکی می‌شود. اگرچه تلاش‌های اولیه برای تشخیص بیماری و توصیه‌های درمانی چالش برانگیز بوده است، اما انتظار می‌رود که هوش مصنوعی در نهایت بر آن حوزه نیز تسلط یابد.

 

* توسعه هوش مصنوعی در صنایع پزشکی؛ فرایندی اجتناب‌ناپذیر

با توجه به پیشرفت‌های سریع هوش مصنوعی در تجزیه و تحلیل تصویربرداری، به نظر می‌رسد که هوش مصنوعی در آینده بیشتر تصاویر رادیولوژی و پاتولوژی را بررسی کند.

بزرگ‌ترین چالش هوش مصنوعی در حوزه‌های مراقبت‌ها و خدمات بهداشتی این نیست که آیا فناوری‌ها به اندازه کافی قادر خواهند بود مفید باشند یا نه، بلکه اطمینان از پذیرش آن‌ها در فرایند بالینی روزانه است.

پذیرش گسترده هوش مصنوعی را تأیید قانون‌گذاران و تنظیم گران می‌تواند تضمین کند و این مسئله نیازمند استاندارد شدن این خدمات با توجه به سیستم هر کشور، آموزش آن به پزشکان، تأمین بودجه و به روز شدن مدام آن است.

این چالش‌ها در نهایت برطرف خواهند شد، اما انجام آن‌ها بسیار بیشتر از توسعه و ارائه خود فناوری‌ها طول می‌کشد. همچنین مشخص است که سیستم‌های هوش مصنوعی جایگزین پزشکان انسانی در مقیاس بزرگ نمی‌شوند، بلکه مکمل آن‌ها هستند و در کنار آن‌ها خدمات بهیاری به بیماران ارائه می‌دهند از این رو شاید تنها ارائه دهندگان مراقبت‌های بهداشتی که به مرور زمان شغل خود را از دست می‌دهند ممکن است کسانی باشند که از کار در کنار هوش مصنوعی امتناع می‌ورزند.

وزرای دیجیتال فدرال و ایالتی در آلمان از اتحادیه اروپا درخواست کردند که یک سیستم نظارتی سنجیده و سریع را برای کاهش خطرات استفاده از هوش مصنوعی راه اندازی کند.
به گزارش تسنیم به نقل از روزنامه تاگس اشپیگل آلمان، وزرای دیجیتال فدرال و ایالتی در آلمان خواستار تنظیم سریع اما سنجیده هوش مصنوعی در اروپا شده اند. فولکر ویزینگ، وزیر دیجیتال فدرال آلمان پس از نشست وزیران در مونیخ گفت که بدون هوش مصنوعی دیگر رقابتی در آینده وجود نخواهد داشت.

وی افزود: اما در اینجا مسئله چگونگی آن مطرح است: در اینجا باید مسئله یک چارچوب نظارتی که نوآوری پسند است اما از ارزش های ما مانند شفافیت و ارزش های دموکراتیک محافظت می کند مطرح باشد.

به عنوان مثال، ویسینگ به تبلیغات طرفدار روسیه تحت کنترل هوش مصنوعی در شبکه های اجتماعی اشاره کرده و گفت: اگر می خواهید کاری در مورد آن انجام دهید، باید وقت خود را تلف نکنید. او تاکید کرد: باید مطمئن شوید که هوش مصنوعی به ما خدمت می کند و ما را تحریف و دستکاری نمی کند. جودیت گرلاخ، وزیر دیجیتال ایالت بایرن هم گفت که آنها می خواهند از فرصت های ارائه شده توسط هوش مصنوعی استفاده کنند و خطرات را از طریق مقررات خوب به حداقل برسانند.

او از پیشنهادات قبلی در سطح اروپا انتقاد کرد و آن را افراطی خواند و نسبت به محدودیت زیاد در این زمینه هشدار داد. وی افزود: نوآوری های هوش مصنوعی در اروپا نباید به خطر بیفتد. هیچ ترسی و الزامات ایدئولوژی محور نباید وجود داشته باشد.

هوش مصنوعی معمولاً به برنامه‌های مبتنی بر یادگیری ماشینی اطلاق می‌شود که در آن نرم‌افزار مقادیر زیادی از داده‌ها را برای مطابقت بررسی می‌کند و از آنها نتیجه‌گیری می‌کند. آنها در حال حاضر در بسیاری از مناطق استفاده می شوند.

در عین حال، این نگرانی وجود دارد که از فناوری مبتنی بر هوش مصنوعی برای انتشار اطلاعات نادرست سوء استفاده شود.

اتحادیه اروپا می خواهد با اولین قانون برای فناوری هوش مصنوعی آن را تحت کنترل درآورده و خطرات توسعه آن را کاهش دهد.

هوش مصنوعی اخیرا در نامه سرگشاده کارشناسان برجسته به عنوان یک تهدید موجودیتی برای بشریت، شبیه به یک همه گیری یا جنگ هسته ای ارزیابی شده است. این هشدار واضح در نامه‌ای سرگشاده از بخش های مربوط به این صنعت آمده که توسط مخترعانی مانند سام آلتمن، بنیانگذار هوش مصنوعی Open و دیگران امضا شده است. در این نامه آمده است که کاهش خطرات این فناوری جدید باید یک "اولویت جهانی" باشد.

مارگارت وستاگر، کمیسر رقابت اتحادیهٔ اروپا چندی پیش در سخنانی اظهار داشت که این اتحادیه احتمالا امسال به توافقی سیاسی دست خواهد یافت که راه را برای اولین قانون بزرگ هوش مصنوعی جهان هموار خواهد کرد.

در حالی که انتظار می رود قانون هوش مصنوعی اتحادیه اروپا تا سال جاری تصویب شود، قانونگذاران گفته اند که اجرای آن چند سال طول می کشد.

رئیس جمهور آمریکا نیز اذعان کرد خطرات ناشی از هوش مصنوعی برای امنیت و اقتصاد نیاز به رسیدگی دارد.
به گزارش فارس به نقل از رویترز، جو بایدن، رئیس‌جمهور آمریکا گفت که خطرات هوش مصنوعی درمورد امنیت ملی و اقتصاد باید مورد توجه قرار گیرد و افزود که از متخصصان مشاوره خواهد گرفت.

بایدن طی مراسمی در سانفرانسیسکو گفت: « دولت من متعهد به حفاظت از حقوق و ایمنی آمریکایی‌ها و در عین حال محافظت از حریم خصوصی، رسیدگی به سوگیری و اطلاعات نادرست و اطمینان از ایمن بودن سیستم‌های هوش مصنوعی است.»

بایدن با گروهی از رهبران و حامیان جامعه مدنی که قبلاً از نفوذ شرکت های بزرگ فناوری انتقاد کرده بودند، ملاقات کرد تا درباره هوش مصنوعی بحث کند. او گفت: «می‌خواستم مستقیماً در این مورد از کارشناسان بشنوم.»

چندین دولت در حال بررسی چگونگی کاهش خطرات فناوری نوظهور هستند. در ماه‌های اخیر پس از انتشار چت‌جی‌پی‌تی توسط شرکت اپن‌ای‌ای، نگرانی ها در مورد خطرات هوش مصنوعی افزایش یافته است. رگولاتورها در سطح جهانی در تلاش هستند تا قوانینی را برای استفاده از هوش مصنوعی مولد تنظیم کنند.

بایدن همچنین اخیراً در مورد موضوع هوش مصنوعی با دیگر رهبران جهان از جمله ریشی سوناک، نخست وزیر بریتانیا که دولت او اواخر امسال اولین نشست جهانی در مورد ایمنی هوش مصنوعی را برگزار خواهد کرد، بحث کرده است. انتظار می رود بایدن در جریان سفر جاری نارندرا مودی، نخست وزیر هند به این کشور با او در مورد این موضوع گفت وگو کند.

قانونگذاران اتحادیه اروپا هفته گذشته با تغییراتی در پیش نویس قوانین هوش مصنوعی پیشنهادی کمیسیون اروپا به منظور تعیین استاندارد جهانی برای فناوری مورد استفاده در همه چیز از کارخانه های خودکار گرفته تا خودروهای خودران و چت بات ها موافقت کردند.

ورود رییس جمهور آمریکا به خطرات هوش مصنوعی

چهارشنبه, ۳۱ خرداد ۱۴۰۲، ۰۳:۴۸ ب.ظ | ۰ نظر

جوبایدن رییس جمهور آمریکا اعلام کرد ریسک های هوش مصنوعی برای امنیت ملی و اقتصاد باید بررسی شود. وی در این زمینه خواستار مشاوره کارشناسی خواهد شد.

به گزارش خبرگزاری مهر به نقل از رویترز، او در مراسمی در سن فرانسیسکو گفت: دولت من به حفاظت از حقوق مردم آمریکا و حفاظت از آنها حین محافظت از حریم خصوصی پایبند است. برای این منظور اقدامات مختلفی را برای بررسی تبعیض، اخبار جعلی و امنیت سیستم‌های هوش مصنوعی قبل از عرضه انجام می‌دهد.

بایدن با گروهی از رهبران شهری و فعالانی که قبلاً تأثیر شرکت‌های بزرگ فناوری را نقد کرده، دیدار کرد تا درباره هوش مصنوعی مذاکره کند. او در این باره افزود: می‌خواهم نظرات کارشناسان را در این زمینه بشنوم.

در حال حاضر چند دولت مشغول بررسی اقداماتی هستند تا خطرات فناوری‌های در حال ظهور را کاهش دهند. سرمایه گذاری در هوش مصنوعی در ماه‌های پس از عرضه چت جی پی تی متعلق به شرکت اوپن ای آی شکوفا شده است.

در این میان رگولاتورهای سراسر جهان مشغول تنظیم قوانینی برای نظارت بر هوش مصنوعی مولد هستند که می‌تواند متن و عکس تولید کند و تأثیر آن با ظهور اینترنت مقایسه شده است.

رئیس جمهور آمریکا پیش از این موضوع هوش مصنوعی را با دیگر رهبران جهان از جمله ریشی سوناک نخست وزیر انگلیس مطرح کرده بود. قرار است دولت انگلیس نیز در سال جاری میلادی نخستین اجلاس جهانی ایمنی هوش مصنوعی را برگزار کند. پیش بینی می‌شود بایدن این موضوع را با نارندا مودی نخست وزیر هند نیز مطرح کند.

رئیس دانشگاه آزاد اسلامی گفت: دانشگاه‌ها باید واقعیت هوش مصنوعی (چت جی پی تی و...) را بپذیرند و فرکانس ارسال امواج‌شان را تغییر دهند، بنابراین تحول برای جوان ایرانی «شایدی» نیست که باید اتفاق بیافتد، بلکه «بایدی» است که توسط نظام آموزش عالی باید رقم بخورد.
  به گزارش گروه دانشگاه ایسکانیوز، کارگاه آموزشی نحوه تدریس دروس «ریاضی ۱» و «فیزیک ۱» با رویکرد هوش مصنوعی عصر روز گذشته با حضور  محمدمهدی طهرانچی رئیس دانشگاه آزاد اسلامی،  محمد علی‌اکبری معاون علوم، مهندسی و کشاورزی، توحید پوررستم رئیس واحد تهران مرکزی و جمعی از اعضای هیات علمی برگزیده واحدهای دانشگاهی سراسر کشور در واحد تهران مرکزی برگزار شد. 

طهرانچی در این کارگاه با تسلیت سالروز شهادت امام جواد (ع) و با اشاره به لزوم تحول در دانشگاه، گفت: جریان آموزش، جریانی بسیار تحول‌گرا و ناظر بر آینده است. توقف در آموزش می‌تواند در عقب نگهداشت جامعه بسیار موثر باشد. شاید این روزها با کلیدواژه بی‌رغبتی جوانان به دانشگاه مواجه شده باشیم، اما واقعیت این است که فرکانس طبیعی جوانان تغییر کرده و دانشگاه در همان فرکانس سابق در حال ارسال امواج است، بدیهی است هرچه در این فرکانس می‌گوییم، برمی‌گردد.

رئیس دانشگاه آزاد اسلامی ادامه داد: طی این سال‌ها، علوم، پیشرفت فراوانی داشته و این پرسش مطرح می‌شود که مگر فیزیک در فیزیک کلاسیک متوقف مانده که دانشگاه‌های ما همچنان فیزیک کلاسیک را تدریس می‌کنند، چرا دانشگاه‌ها سطح مقطع دانشجویان مهندسی را در دریافت تکراری فیزیک کلاسیک مکانیک حبس کرده‌اند؟ در حالی‌که قبول داریم فیزیک مکانیک مربوط به ۳۰۰ سال پیش است و طی این سال‌ها اتفاقات فراوانی افتاده است و مهندسی که مبتنی بر فیزیک کلاسیک بود جای خود را به مهندسی بر کوانتوم داده است. آیا دانشجویان باید مسیر طولانی ۱۳۲ واحدی بخوانند تا به ۶ واحد کوانتوم برسند؟

وی تصریح کرد: آیا قبول داریم که در ریاضی از منطق ریاضی عبور کرده‌ایم و به سمت حرفه‌گری در ریاضی رفتیم و حرفه‌گری ریاضی ابتدا ماشین حساب و سپس نرم‌افزارها است و دیگر کسی جذر حساب نمی‌کند و انتگرال سه‌گانه نمی‌گیرد. 

عضو هیأت امنای دانشگاه آزاد اسلامی با بیان اینکه طی سال‌های اخیر فناوری و کامپیوتر، رشد فراوانی داشته، اما دروس دانشگاهی رشد نداشته‌اند، گفت: رویه فعلی باعث شده تا نیمسال اول و دوم رشته‌های مهندسی تبدیل به کلاس‌های کسل‌کننده و زائد دانشجویان شود. آیا یک مهندس خوب یا حتی علوم اجتماعی خوب به ذهن ریاضی نیازمند نیست؟ در قرآن کریم «هل یستوی الذین»‌های زیادی وجود دارد که بدهیات را در قالب مقایسه بیان می‌کند، اما آیا خداوند خواسته بدهیات را بگوید؟ خیر، بلکه اگر کسی نابرابری را نفهد، خبیث و طیب را تشخیص نمی‌دهد.

طهرانچی ادامه داد: تربیت دینی نیازمند تربیت منطقی است و تربیت منطقی از ریاضی است، اما آیا تربیت منطقی در حل کردن معادله دیفرانسیل است؟ خیر، سخت‌ترین معادلات را رایانه انجام می‌دهد، اگر دور از جوانان بمانیم، حذف خواهیم شد. حتی یک بررسی نمی‌کنیم که در دبیرستان به دانش‌آموزان چه می‌آموزند که دانشگاه آن را ادامه بدهد و تکرار نکند.

وی افزود: دانشگاه‌ها باید واقعیت هوش مصنوعی (چت جی پی تی  و...) را بپذیرند و فرکانس ارسال امواج‌شان را تغییر دهند، بنابراین تحول برای جوان ایرانی «شایدی» نیست که باید اتفاق بیافتد، بلکه «بایدی» است که توسط نظام آموزش عالی باید رقم بخورد. بسیاری فکر می‌کنند ناامیدی جوان به دلیل تورم و گرانی است، اما مسأله اصلی او این موضوعات نیست، مسأله او رضایتمندی از زندگی و آموزش است. لذت یادگرفتن از او گرفته شده است و باید روش را تغییر داد و طرحی نو درانداخت.

 طهرانچی با تأکید بر لزوم استمرار یادگیری اساتید، گفت: واقعیت این است که اگر یادگیری خود را ادامه ندهیم، یاددهی اتفاق نمی‌افتد. باید در کلاس‌های ریاضی و فیزیک، فکر کردن را به دانشجو یاد بدهیم. این درس‌ها مهندس را فکور تربیت می‌کند و شرط آن ایجاد علاقه یادگیری در دانشجو و استفاده از روش‌های جدید آموزش است. یعنی دانشجویان ما با تلفن همراهشان به کلاس بیایند، با تلفن همراه یاد بگیرند و با آن امتحان بدهند، چون امروز این وسیله و اتصال به اینترنت جزئی از زندگی مردم شده است. ما در کلاس به سوالات دانشجویان پاسخ نمی‌دهیم و آموزش‌مان برای آنها کافی نیست که مجبور می‌شوند به تلفن همراه خود مراجعه کنند.

عضو هیأت امنای دانشگاه آزاد اسلامی تأکید کرد: برای مواجهه با تحولات، در ابتدا باید تحولات در فناوری را به مشروعیت بشناسیم و باور کنیم دنیای پیرامون ما تغییر کرده است و بعد با القای پرسش، تحریک یادگیری و روش‌مند کردن یاددهی از مقام استاد ممتحن به همراه ارزش‌آفرین تبدیل شویم. اگر دانشگاه‌ها بر قواعد فعلی و سابق خود بمانند، شاهد عدم استقبال جوانان از تحصیل در دانشگاه حتی در آموزش رایگان خواهیم بود و دانشگاه‌ها تعطیل خواهند شد.

طهرانچی خطاب به اعضای هیأت علمی شرکت‌کننده در کارگاه آموزشی نحوه تدریس دروس «ریاضی ۱» و «فیزیک ۱» با رویکرد هوش مصنوعی، گفت: شما پیشگامان تغییر و تحول در نظام آموزش‌عالی هستید و اعلام آمادگی کردید که در این تغییر ریل بتوانید اثرگذار باشید. ما باید به زودی فیزیک پایه ۱ و ریاضی ۱، فیزیک ۲ و ریاضی ۲ را برای دانشجویان مهندسی، علوم پایه و دیگر علوم مبتنی بر تحولات روز آموزش بدهیم. یادتان باشد که فیزیک‌دانان و ریاضی‌دان‌ها بیش از ۱۰۰ سال است که پیشگامان تحول در جامعه هستند و به همین دلیل تحول در آموزش را از این دو درس شروع کردیم.

وی ادامه داد: به زودی برده‌داری مدرن شکل خود را پیدا خواهد کرد و شمال و جنوب شکل جدید پیدا می‌کند؛ کسانی‌که بر هوش مصنوعی باشند برده نخواهند شد، اما کسانی که هوش مصنوعی بر آنها باشد و مصرف کننده هوش مصنوعی باشند، از فکر جدا شده و به یک جسم و برده تبدیل خواهند شد. وقتی کسی فکر نکند، بعد از مدتی از قدرت فکر کردن خالی می‌شود. فکر هم روش دارد، فکر هم سازمان فکری می‌خواهد؛ فیزیک و ریاضی قدرت تفکر و سازمان تفکر می‌سازد. در فصل اول گزارش بنیاد ملی علوم آمریکا NSF آمده است که آموزش ریاضی در مدرسه، آموزش علوم و کامپیوتر در مدرسه، تناسب معلم ریاضی مدرسه نسبت به تخصصش را ارزیابی می‌کنند، چون کسی که تربیت ریاضی نشده باشد، نمی‌تواند منطقی تربیت داشته شود و ذهن منطقی و حل مسأله کارکردگرا خود را به دیگران منتقل کند.

طهرانچی در پایان گفت: می‌خواهیم انسان متفکر تربیت کنیم و راه آن برگشت به خویشتن، تلاش و سبک‌های نو است. تشکر خود را به علاقمندان این سرزمین که می‌خواهند ارزش و لذت یادگرفتن را در دانشجویان زنده کنید، ابراز می‌کنم.

 علی‌اکبری نیز در ابتدای این مراسم، گفت: پس از طرح موضوع استفاده از هوش مصنوعی در تدریس از سوی دکتر طهرانچی، جلسات منظم درباره نحوه پیاده‌سازی و عملیاتی‌سازی این طرح برگزار شد. دلیل اینکه تدریس با استفاده هوش مصنوعی را از درس ریاضی و فیزیک یک آغاز کردیم این است که این دروس اولین گام آموزش دانشجویان در دانشگاه است.

معاون علوم، مهندسی و کشاورزی دانشگاه آزاد اسلامی ادامه داد: با توانمندی که در این دو گروه وجود داشت، توانستیم ۵۰ درصد سرفصل درس فیزیک و تا ۴۰ درصد سرفصل درس ریاضی را تغییر دهیم‌. این دروس از نیمسال تحصیلی آینده به صورت اختیاری ارائه می‌شود.

وی با اشاره به بارگذاری برنامه علمی هوش مصنوعی در سامانه پژوهشیار، گفت: پیش‌بینی ما این است که تا سال آینده دانشسرای هوش مصنوعی و به موازات آن دانشکده امنیت غذایی راه‌اندازی شود و گروه‌ها و دانشجویان بهم متصل شوند. همچنین فرآیند درس کارآموزی مقطع کارشناسی در حوزه هوش مصنوعی نیز تدوین شده است. علاوه بر این اقدامات، فیلم آموزش پایتون را آماده کردیم تا دانشجویان علاقه‌مند بتوانند از این دروه استفاده کنند.

هوش مصنوعی کدام مشاغل را تهدید می‌کند؟

دوشنبه, ۲۹ خرداد ۱۴۰۲، ۰۶:۱۰ ب.ظ | ۰ نظر

هوش مصنوعی با سرعت بالایی در حال پیشرفت است و روزبه‌روز به تعداد کاربران چت بات‌ها اضافه می‌شود، در این گزارش به ابعاد مختلف این فناوری پرداخته شده است.

به گزارش بی‌بی‌سی، هوش مصنوعی (AI) با سرعت بالایی در حال توسعه است و بسیاری از جنبه‌های زندگی مدرن را متحول می‌کند. با این حال، برخی از کارشناسان نگران هستند که از آن برای اهداف مخرب استفاده شود و ممکن است مشاغل را تهدید کند.

 

هوش مصنوعی چیست و چگونه کار می‌کند؟

هوش مصنوعی به رایانه اجازه می‌دهد تا تقریبا به گونه‌ای عمل کند که گویی یک انسان است. رایانه‌ها می‌توانند مقادیر عظیمی از اطلاعات را تغذیه و برای شناسایی الگو‌های موجود در آن آموزش ببینند تا بتوانند پیش‌بینی کنند، مسائل را حل کنند و حتی از اشتباهات خود درس بگیرند.

علاوه بر داده‌ها، هوش مصنوعی به الگوریتم‌ها (فهرستی از قوانین که برای تکمیل یک کار باید به ترتیب صحیح رعایت شوند)  متکی است.

این فناوری در پشت دستیار‌های مجازی سیری و الکسا با کنترل صوتی قرار دارد. این به اسپاتیفای و یوتیوب اجازه می‌دهد آنچه را که کاربر می‌خواهد پخش کند، به او پیشنهاد دهند و به فیس‌بوک و توئیتر کمک می‌کند تصمیم بگیرند که کدام پست‌های شبکه‌های اجتماعی را به کاربران نشان دهند.

هوش مصنوعی به آمازون اجازه می‌دهد تا عادات خرید مشتریان را تجزیه و تحلیل کرده و خرید‌هایی را برای آینده پیشنهاد کند و این شرکت همچنین از این فناوری برای سرکوب نظرات جعلی استفاده می‌کند.

 

چت‌جی‌پی‌تی و مای‌ای آی اسنپ‌چت (My AI Snapchat) چیست؟

دو برنامه قدرتمند مبتنی بر هوش مصنوعی که در ماه‌های اخیر بسیار محبوب شده‌اند چت‌جی‌پی‌تی و مای‌ای آی اسنپ‌چت هستند. این دو نمونه‌هایی از چیزی هستند که به آن هوش مصنوعی مولد می‌گویند.

این دو سیستم از الگو‌ها و ساختار‌هایی که در مقادیر زیادی از داده‌های منبع شناسایی برای تولید محتوای جدید و اصلی استفاده می‌کند که احساس می‌شود محتوای تولیدی توسط یک انسان ایجاد شده است. این هوش مصنوعی با یک برنامه کامپیوتری به نام چت بات همراه است که از طریق متن با کاربران انسانی صحبت می‌کند.

این برنامه‌ها می‌توانند به سوالات پاسخ دهند، داستان بگویند و کد‌های کامپیوتری بنویسند، اما هر دو برنامه گاهی اوقات پاسخ‌های نادرستی را برای کاربران ایجاد می‌کنند و می‌توانند سوگیری موجود در منبع خود را بازتولید کنند، مانند تبعیض جنسی یا نژادپرستی.

 

چرا منتقدان می‌ترسند هوش مصنوعی خطرناک باشد؟

با وجود قوانین کم در مورد نحوه استفاده از هوش مصنوعی، کارشناسان هشدار داده اند که رشد سریع این فناوری می‌تواند خطرناک باشد. برخی حتی گفته اند که تحقیقات هوش مصنوعی باید متوقف شود.

در ماه می، جفری هینتون که به عنوان یکی از پدرخوانده‌های هوش مصنوعی شناخته می‌شود، شغل خود را در گوگل ترک کرد و هشدار داد که چت بات‌های هوش مصنوعی به زودی می‌توانند باهوش‌تر از انسان‌ها شوند.

در اواخر همان ماه، مرکز ایمنی هوش مصنوعی مستقر در آمریکا بیانیه‌ای را منتشر کرد که توسط ده‌ها متخصص برجسته فناوری حمایت شد. آن‌ها استدلال می‌کنند که هوش مصنوعی می‌تواند برای تولید اطلاعات نادرستی استفاده شود که می‌تواند جامعه را بی ثبات کند. در بدترین سناریو، آن‌ها می‌گویند که ماشین‌ها ممکن است آنقدر هوشمند شوند که کنترل را در دست بگیرند واین موضوع منجر به انقراض بشریت شود.

با این حال، مارگرت وستاگر، رئیس فناوری اتحادیه اروپا گفت که پتانسیل هوش مصنوعی برای تقویت تعصب یا تبعیض، نگرانی مبرم‌تری است. او به ویژه در مورد نقشی که هوش مصنوعی می‌تواند در تصمیم‌گیری‌هایی که بر معیشت مردم تاثیر می‌گذارد، مانند درخواست‌های وام ایفا کند، نگران است و اضافه کرد که خطر قطعا وجود دارد و ممکن است از هوش مصنوعی برای تاثیرگذاری بر انتخابات استفاده شود.

 

در حال حاضر چه قوانینی در مورد هوش مصنوعی وجود دارد؟

دولت‌ها در سراسر جهان در حال تلاش برای نحوه تنظیم هوش مصنوعی هستند. اعضای پارلمان اروپا به تازگی به قانون پیشنهادی هوش مصنوعی اتحادیه اروپا رای داده اند که یک چارچوب قانونی دقیق برای هوش مصنوعی ایجاد می‌کند که شرکت‌ها باید از آن پیروی کنند.

مارگرت وستاگر می‌گوید: برای مقابله با بزرگترین خطرات ناشی از هوش مصنوعی به نرده‌های محافظ نیاز است.

این قانون که انتظار می‌رود در سال ۲۰۲۵ اجرایی شود، کاربرد‌های هوش مصنوعی را به سطوح خطر برای مصرف‌کنندگان دسته‌بندی می‌کند و بازی‌های ویدئویی یا فیلتر‌های هرزنامه مجهز به هوش مصنوعی در پایین‌ترین گروه خطر قرار می‌گیرند.

سیستم‌های پرخطر مانند سیستم‌هایی که برای ارزیابی امتیازات اعتباری یا تصمیم‌گیری برای دسترسی به مسکن استفاده می‌شوند، با سخت‌ترین کنترل‌ها مواجه خواهند شد.

این قوانین در انگلیس، جایی که دولت چشم انداز خود را برای آینده هوش مصنوعی در ماه مارس تعیین کرد، اعمال نخواهد شد.

این سازمان راه اندازی یک تنظیم کننده اختصاصی هوش مصنوعی را رد کرد و در عوض گفت که نهاد‌های موجود مسئول نظارت بر آن خواهند بود. اما وستاگر می‌گوید که مقررات هوش مصنوعی باید یک مسئله جهانی باشد و می‌خواهد بین کشور‌های هم‌فکر اجماع ایجاد کند.

قانونگذاران آمریکایی هم نگرانی خود را در مورد اینکه آیا کد‌های داوطلبانه موجود مناسب هستند یا خیر، ابراز کرده اند.

در همین حال، چین قصد دارد شرکت‌ها را مجبور کند هر زمان که از الگوریتم هوش مصنوعی استفاده می‌شود، به کاربران اطلاع دهند.

 

کدام مشاغل به دلیل هوش مصنوعی در معرض خطر هستند؟

هوش مصنوعی این پتانسیل را دارد که دنیای کار را متحول کند، اما این فناوری پرسش‌هایی را در مورد مشاغلی که ممکن است جایگزین کند، ایجاد می‌کند.

گزارش اخیر بانک سرمایه گذاری گلدمن ساکس نشان می‌دهد که هوش مصنوعی می‌تواند معادل ۳۰۰ میلیون شغل تمام وقت در سراسر جهان را جایگزین کند، زیرا برخی وظایف و عملکرد‌های شغلی خودکار می‌شوند. این عدد معادل یک چهارم تمام کار‌هایی است که انسان‌ها در حال حاضر در آمریکا و اروپا انجام می‌دهند.

در این گزارش تعدادی از صنایع و نقش‌هایی که می‌توانند تحت تاثیر قرار گیرند، از جمله مشاغل اداری، کار‌های حقوقی، معماری و مدیریت را برجسته می‌کند و همچنین مزایای بالقوه عظیمی را برای بسیاری از بخش‌ها شناسایی و پیش‌بینی کرد که هوش مصنوعی می‌تواند منجر به افزایش ۷ درصدی تولید ناخالص داخلی جهانی شود.برخی از حوزه‌های پزشکی و علم در حال حاضر از هوش مصنوعی استفاده می‌کنند و پزشکان از این فناوری برای کمک به تشخیص سرطان سینه و دانشمندان از آن برای توسعه آنتی‌بیوتیک‌های جدید بهره می‌برند.
منبع:خبرگزاری صدا و سیما

آمریکا از شاکیان هوش مصنوعی حمایت می‌کند

جمعه, ۲۶ خرداد ۱۴۰۲، ۰۲:۴۰ ب.ظ | ۰ نظر

سناتورهای آمریکایی قانونی را ارائه کردند که به شبکه‌های اجتماعی اجازه می‌دهد به دلیل انتشار مطالب مضر ایجاد شده با هوش مصنوعی شکایت کنند.
به گزارش خبرگزاری صدا و سیما به نقل از رویترز ، دو سناتور آمریکایی قانونی را ارائه کردند که به شبکه‌های اجتماعی اجازه می‌دهد به دلیل انتشار مطالب مضر ایجاد شده با هوش مصنوعی شکایت کنند. این قانون راه را برای شکایت علیه شبکه‌های اجتماعی به دلیل ادعا‌های مبتنی بر فناوری هوش مصنوعی در حال ظهور، از جمله عکس‌ها و ویدئو‌های دیپ فیک باز می‌کند.


جاش هاولی جمهوری‌خواه و ریچارد بلومنتال لایحه‌ای را اعلام کردند که براساس آن هوش مصنوعی را در بخش ۲۳۰ تقسیم می‌کند. قانونی که شرکت‌های اینترنتی را از مسئولیت محتوای ارسال شده در سکوهایشان محافظت می‌کند. این اقدام به دنبال شکست دو پرونده مهم در دادگاه عالی در ماه گذشته بود که دامنه مصونیت بخش ۲۳۰ را محدود می‌کرد.

هاولی گفت: ما نمی‌توانیم همان اشتباهاتی را که با فناوری بزرگ در بخش ۲۳۰ انجام دادیم، با هوش مصنوعی مولد هم مرتکب شویم.

بلومنتال این لایحه را اولین گام در ایجاد تدابیر امنیتی درمورد هوش مصنوعی خواند، زیرا پیشرفت در فناوری شتاب می‌گیرد و سرمایه گذاری افزایش می‌یابد.

حمایت دو حزبی از این پیشنهاد، پس از چندین سال توقف تلاش‌های قانونی آمریکا که بخش فناوری را در بر می‌گیرد، به حوزه‌ای از پیشرفت بالقوه اشاره می‌کند. جمهوری‌خواهان و دموکرات‌ها تا حد زیادی موافق هستند که مشکلاتی با متا، گوگل و شرکت‌های دیگر وجود دارد، اما در مورد نحوه رسیدگی به آن‌ها با هم اختلاف نظر دارند.

درخواست‌ها برای اصلاح بخش ۲۳۰ از طیف ایدئولوژیک و سیاسی از جمله جو بایدن، رئیس‌جمهور دموکرات و رقیب جمهوری‌خواه او، دونالد ترامپ برای پاسخ‌گویی به شرکت‌ها در مورد نحوه تاثیر الگوریتم‌های رتبه‌بندی آن‌ها بر توزیع محتوا، از جمله نگرانی‌های دیگر مطرح شده است.

بخش ۲۳۰ قانون ارتباطات در سال ۱۹۹۶ از خدمات رایانه‌ای تعاملی محافظت می‌کند و معتقد است که نمی‌توان آن‌ها را به عنوان ناشر یا گوینده اطلاعات ارائه شده توسط کاربران در نظر گرفت. مجموعه کوچکی از استثنائات محدود برای مسائلی مانند نقض حق چاپ و قاچاق جنسی کودکان در این بخش ایجاد شده و مورد دوم از طریق اصلاحیه دو حزبی در سال ۲۰۱۸ به نام قانون مبارزه با قاچاق جنسی برخط معرفی شد.

رئیس سازمان ملل متحد از ایجاد نهاد بین المللی دیده بان هوش مصنوعی مانند آژانس هسته ای حمایت میکند.
به گزارش سایبربان،دبیرکل سازمان ملل از پیشنهاد برخی مدیران هوش مصنوعی برای ایجاد یک نهاد ناظر بین المللی هوش مصنوعی مانند آژانس بین المللی انرژی اتمی حمایت کرد.

فناوری هوش مصنوعی مولد از شش ماه پیش که چت جی پی تی (ChatGPT) راه اندازی شد، مردم را شیفته خود کرده و به سریع ترین اپلیکیشن محبوب حال حاضر تبدیل شده است. هوش مصنوعی همچنین به کانون نگرانی در مورد توانایی خود در ایجاد تصاویر جعلی و دیگر اطلاعات نادرست تبدیل شده است.

هشدار محققان در مورد هوش مصنوعی به شدت رو به افزایش است. از اینرو گوترش به خبرنگاران گفت: ما باید این هشدارها را جدی بگیریم.

آنتونیو گوترش اعلام کرده است که قصد دارد کار خود را تا پایان سال در یک نهاد مشورتی هوش مصنوعی سطح بالا آغاز کند تا به طور منظم عملکرد هوش مصنوعی را بررسی کند و توصیه هایی را در مورد چگونگی هماهنگی هوش مصنوعی با حقوق بشر و حاکمیت قانونی ارائه دهد.

او در ادامه افزود: من از این ایده که ما میتوانیم یک آژانس هوش مصنوعی مانند آژانس بین المللی انرژی اتمی داشته باشیم، استقبال میکنم.

گوترش گفت که چنین ایده ای میتواند بسیار جالب باشد اما اشاره کرد که تنها کشورهای عضو میتوانند آن را ایجاد کنند، نه دبیرخانه سازمان ملل متحد.

هشدار رئیس جمهور آلمان درباره هوش مصنوعی

دوشنبه, ۲۲ خرداد ۱۴۰۲، ۰۳:۳۹ ب.ظ | ۰ نظر

رئیس جمهور فدرال آلمان در نشستی درباره خطرات توسعه هوش مصنوعی هشدار داده و نظارت موثرتر بر این فناوری را لازم دانست.
به گزارش تسنیم به نقل از "ان تی وی" آلمان، "فرانک والتر اشتاین مایر"، رئیس جمهور فدرال آلمان، نسبت به خطرات احتمالی ناشی از توسعه مداوم هوش مصنوعی هشدار داد. اشتاین مایر در نشستی با محوریت این موضوع گفت: هوش مصنوعی یک فناوری مخرب است که زندگی همه ما را تغییر خواهد داد. رئیس جمهور فدرال آلمان هشدار داد که این فناوری همچنین می تواند به صورت دستکاری و بدخواهانه استفاده شود. او به عنوان نمونه به تصویر انفجار ادعایی در وزارت دفاع ایالات متحده اشاره کرد که هزاران بار در اینترنت به عنوان اخبار جدی به اشتراک گذاشته شده بود.

وی افزود: خبر جعلی افشا شد، اما قیمت‌های بازار سهام قبلاً در بازارهای مالی سقوط کرده بود. شفاف سازی همیشه آنقدر سریع و واضح نیست و شفاف سازی همیشه به همه کسانی که پیام را دیده اند نمی رسد.

"اشتاین مایر" گفت، گسترش ترس با چنین عکس‌هایی که به‌طور مصنوعی تولید می‌شوند، متاسفانه خیلی خوب عمل می‌کند و تقلبی‌ها بهتر و بهتر می‌شوند. وی افزود: وقتی جعلی در دنیا منتشر شد، اصلاح آن دشوار است. یک نوع آموزش عمومی دیجیتال ضروری است.همه ما باید یاد بگیریم که به جای تکیه بر معقول بودن یک ماشین، پاسخ های هوش مصنوعی را بررسی کنیم.

اشتاین مایر تاکید کرد که یک چارچوب اخلاقی و قانونی با استانداردهای موثر و نهادهای نظارتی نیز باید ایجاد شود. به گفته وی برای کشف تحولات نامطلوب، روزنامه نگاری قوی و مستقل نیز ضروری است.

مقامات آلمانی مرتبا درباره خطرات توسعه هوش مصنوعی هشدار می دهند.

"ساسکیا اسکن"، رهبر حزب سوسیال دموکرت آلمان هم اخیرا از ایجاد یک مرجع نظارتی برای استفاده از هوش مصنوعی (KI) در آلمان حمایت کرد. این مقام آلمانی در گفتگویی با خبرگزاری آلمان گفت: از آنجایی که مدیریت داده ها نقش مهمی در نظارت دارد، افسر حفاظت از داده ها و آزادی اطلاعات می تواند انتخاب خوبی باشد. وی تاکید کرد: در هر صورت، ما به مرجعی نیاز داریم که ارزیابی کند آیا استفاده از هوش مصنوعی از قانون پیروی می کند یا خیر.

اسکن در بخش دیگری از سخنانش تاکید کرد که هوش مصنوعی پتانسیل بالایی دارد، به عنوان مثال برای آموزش عادلانه تر، مراقبت های پزشکی بهتر و مدیریت کارآمدتر. اما مطمئناً خطراتی نیز مانند همه فناوری ها وجود دارد. خوب است که آلمان و اروپا نه تنها از نظر فناوری در خط مقدم باشند، بلکه در مورد نحوه تنظیم استفاده از هوش مصنوعی نیز پیشرو باشند.

وزاری کار و کشور آلمان هم اخیرا نسبت به تبعیض و کنترل غیرقانونی کارمندان توسط هوش مصنوعی در شرکت‌ها هشدار دادند.

بر اساس تصمیمات اتخاذ شده در آینده قوانین بسیار سخت گیرانه‌تری در آلمان برای نظارت، کنترل یا انتخاب کارمندان با استفاده از هوش مصنوعی وجود خواهد داشت. روزنامه "زوددویچه سایتونگ" در گزارشی نوشت، "نانسی فایزر"، وزیر کشور فدرال آلمان و هوبرتوس هیل، وزیر کار فدرال هر دو می‌خواهند در یک قانون جدید حفاظت از داده‌های کارکنان از نظارت کامل بر کارمندان جلوگیری کنند.

به گفته نانسی فایزر، وزیر کشور فدرال آلمان هوش مصنوعی نقش مهمی را ایفا خواهد کرد و این فرصت‌های بسیار زیادی را در بر دارد، اما همچنین این خطر را دارد که فرآیندها دیگر شفاف نباشند، انسان‌ها مورد تبعیض قرار گیرند یا حقوق شخصی از طریق نظارت نادرست نقض شود.

دولت همچنین می‌خواهد استفاده از هوش مصنوعی را در فرآیندهای استخدام در شرکت‌ها محدود کند. بر این اساس برنامه‌های مربوطه باید با استانداردهای علمی مطابقت داشته باشند و فقط می‌توانند ویژگی‌هایی را بررسی کنند که برای یک موقعیت مهم هستند.

وزیر دیجیتال آلمان نیز اخیرا خواستار مقررات سریع اتحادیه اروپا برای کاربردهای هوش مصنوعی شده است. وی در این باره گفت: هوش مصنوعی وارد زندگی روزمره شده است و زندگی ما را به طور اساسی تغییر خواهد داد. اتحادیه اروپا باید به سرعت به این موضوع واکنش نشان دهد. همچنین وزارت کشور فدرال آلمان خواهان یک چارچوب قانونی شفاف در این راستا است.

وزیر دیجیتال آلمان گفت: ما باید اکنون عاقلانه واکنش نشان دهیم و هوش مصنوعی را به طور معقولی تنظیم کنیم، قبل از اینکه برای این کار خیلی دیر شود. این کار نباید دوباره سال‌ها طول بکشد. باید اطمینان حاصل شود که این فناوری جدید تنها در صورتی قابل استفاده است که به ارزش‌های اروپایی مانند دموکراسی، شفافیت و بی طرفی پایبند باشد.

برنامه‌های مبتنی بر هوش مصنوعی مانند ChatGPT با کمک هوش مصنوعی محتوا تولید می‌کنند. کاربران می‌توانند دستورات یا جملاتی را مشخص کنند که سیستم‌های مربوطه به‌طور مستقل آن‌ها را با کمک حجم وسیعی از داده‌های اینترنت تکمیل می‌کنند.

نتایج نظر سنجی‌ها هم نشان نشان می‌دهد که اکثر شهروندان آلمانی از قوانین سختگیرانه‌تر برای توسعه هوش مصنوعی حمایت می‌کنند.

انگلیس میزبان نخستین اجلاس جهانی هوش مصنوعی

دوشنبه, ۲۲ خرداد ۱۴۰۲، ۰۳:۱۳ ب.ظ | ۰ نظر

انگلیس نخستین میزبان اجلاس جهانی هوش مصنوعی در پاییز 2023 خواهد بود.
به گزارش سایبربان، نخست وزیر انگلیس اعلام کرد در حالیکه جهان با چالش ها و فرصت های ناشی از پیشرفت سریع هوش مصنوعی دست و پنجه نرم میکند، بریتانیا میزبان اولین اجلاس بزرگ جهانی درباره ایمنی هوش مصنوعی خواهد بود.

هوش مصنوعی به بهبود زندگی ما کمک میکند و توسعه هوش مصنوعی به سرعت انجام میشود و این سرعت نیازمند نظارت میباشد. به همین دلیل است که انگلیس اولین اجلاس بزرگ جهانی درباره ایمنی هوش مصنوعی را برگزار خواهد کرد.

هفته های گذشته ،ده ها کارشناس برجسته در مورد پتانسیل هوش مصنوعی برای به خطر انداختن نسل بشریت به روش های مشابه پاندمیک یا سلاح های هسته ای هشدار دادند.

این نشست که پاییز امسال به میزبانی انگلیس برگزار خواهد شد، خطرات هوش مصنوعی از جمله سیستم های مرزی را مورد بررسی قرار خواهد داد و درباره چگونگی کاهش آنها از طریق اقدامات هماهنگ بین المللی بحث خواهد کرد. همچنین بستری را برای کشورها فراهم خواهد کرد تا روی توسعه بیشتر یک رویکرد مشترک برای کاهش این خطرات با یکدیگر همکاری کنند.

در هفته های اخیر نخست وزیر انگلیس این موضوع را با تعدادی از تجار و رهبران جهان در میان گذاشته است. این رهبران شامل همه اعضای جی ۷ می شود که ماه گذشته در اجلاس هیروشیما شرکت کرده بودند.

در ماه ژوئیه نیز وزیر امور خارجه انگلیس،اولین جلسه توجیهی شورای امنیت سازمان ملل درباره فرصت ها و خطرات هوش مصنوعی برای صلح و امنیت بین المللی را برگزار خواهد کرد.

انگلیس موقعیت خوبی برای برگزاری مذاکرات در مورد آینده هوش مصنوعی دارد. زیرا این کشور در زمینه هوش مصنوعی در جایگاه سوم جهان پس از آمریکا و چین قرار دارد.
 بخش هوش مصنوعی انگلیس در حال حاضر ۳.۷ میلیارد پوند به اقتصاد این کشور کمک میکند و ۵۰ هزار نفر را در سراسر کشور مشغول بکار نموده است.انگلیس یکی از اولین کشورهایی است که طرحی برای توسعه ایمن و مسئولانه هوش مصنوعی ارائه کرد که با سرعت پیشرفت این فناوری سازگار خواهد بود.

نخست وزیر انگلیس طی مصاحبه ای گفت:هوش مصنوعی پتانسیل فوق العاده ای برای تغییر بهتر زندگی ما دارد. اما باید مطمئن شویم که به گونه ای توسعه یافته و مورد استفاده قرار میگیرد که ایمن و بی خطر باشد.هیچ کشوری به تنهایی نمیتواند این کار را انجام دهد. این یک تلاش جهانی خواهد بود.

هوش مصنوعی جدید گوگل رونمایی شد

يكشنبه, ۲۱ خرداد ۱۴۰۲، ۰۵:۱۰ ب.ظ | ۰ نظر

هوش مصنوعی گوگل با نام «آلفادو» برای بهبود مرتب کردن یک مجموعه و اطلاعات استفاده می‌شود.
به گزارش تسنیم، بخش هوش مصنوعی گوگل (Google DeepMind) از هوش مصنوعی جدید این شرکت غول فناوری به نام "AlphaDev" رونمایی کرد. این هوش مصنوعی جدید موفق شده که الگوریتم‌های برنامه‌نویسی را برای مرتب کردن عناصر یک مجموعه و اطلاعات استفاده کند و این فرایندها را بهبود ببخشد.

گوگل، AlphaDev را بر مبنای هوش مصنوعی آلفا زیرو (AlphaZero) ساخته است. آلفازیرو از تکنیک یادگیری تقویتی (RL) استفاده می‌کند. این هوش مصنوعی با آزمون و خطای حالت‌های متفاوت، مقایسه آن‌ها با حالت مطلوب، امتیاز دادن به مدل در صورت درست بودن و تکرار این پروسه، به نتیجه درست می‌رسد.

در این هوش مصنوعی جدید، گوگل بر روی الگوریتم Sort تمرکز کرده است و تلاش کرده آن‌را بهبود ببخشد.

همچنین گوگل طرح جدیدی برای کمک به سازمان‌ها در اعمال کنترل‌های امنیتی اولیه بر روی سیستم های هوش مصنوعی خود و محافظت از آن‌ها در برابر موج جدیدی از تهدیدات سایبری دارد.

این طرح می‌تواند به شرکت‌ها کمک کند تا به سرعت سیستم‌های هوش مصنوعی را در برابر هکرهایی که سعی در دستکاری مدل‌های هوش مصنوعی یا سرقت داده‌هایی که مدل‌ها روی آن‌ها آموزش دیده‌اند، ایمن کنند.

خسارت هوش مصنوعی به معامله‌گران رمزارز

شنبه, ۲۰ خرداد ۱۴۰۲، ۰۳:۴۲ ب.ظ | ۰ نظر

حسین عسکری - طی نظرسنجی اخیر که توسط یک صرافی رمزارز انجام شد، مشخص شد که در ۸۰درصد موارد، معامله گران ارزهای دیجیتال به داشتن تجربیات منفی با چت جی پی تی اعتراف کردند که شامل توصیه‌های نادرست سرمایه گذاری، اطلاعات نادرست و جعل حقایق بود.

هوش مصنوعی یک موجود قادر مطلق نیست، بلکه یک ابزار ساخته دست بشر است.

هوش مصنوعی و به طور خاص، چت جی پی تی، در پارامترهای تعیین شده توسط توسعه دهندگان انسانی عمل می‌کند و در حالی که قابلیت‌های آن قابل توجه است، بدون محدودیت نیست.

 درک جامعه ما از این ابزارها هنوز در حال بلوغ است و تشخیص خطرات بالقوه آنها، به ویژه زمانی که صحبت از تصمیمات مالی می‌شود، بسیار مهم است.

در جستجوی تجربه و نوآوری بهتر مشتری، بسیاری از شرکت‌های فین‌تک در حال بررسی مزایای بالقوه استفاده از هوش مصنوعی در عملیات خود هستند.

با این حال، آزمایش‌ها با استفاده از هوش مصنوعی برای پرسش‌های مشتری، طراحی، کپی‌نویسی و کدنویسی نشان داده‌اند که استعدادهای انسانی همچنان در بیشتر مواقع از هوش مصنوعی بهتر عمل می‌کنند.

صرافی رمزارز بیت گیت سعی کرد از چت جی پی تی برای رسیدگی به سوالات معمول مشتری استفاده کند.

در ابتدا، تحت تأثیر مهارت آن در تجزیه و تحلیل و جمع آوری اطلاعات قرار خواهیم گرفت. اما زمانیکه به جستجوهای پیچیده‌تر پرداخته می‌شود، شکاف‌ها ظاهر خواهند شد.

همانطور که یک آزمایش داخلی اخیر به ما یادآوری کرد، علیرغم اینکه چت جی پی تی بر روی داده‌های گسترده آموزش دیده است، گاهی اوقات اطلاعات گمراه کننده، مغرضانه یا ناقص ارائه می‌دهد.

هنگامی که کارکنان صرافی رمزارز بیت گیت در مورد احساسات بازار در مورد یک آلتکوین کمتر شناخته شده پرس و جو کردند، چت جی پی تی به اشتباه نام توکن را با یک الگوی رفتاری محبوب اینترنتی مرتبط کرد.

پاسخ حاصل، اگرچه سرگرم کننده است، اما ممکن است توسط کسانی که تازه وارد بازار شده‌اند و به شدت به برنامه‌های شخص ثالث متکی هستند، جدی گرفته شده باشد.

سوال دیگری که از چت جی پی تی پرسیده شد و این چت بات اشتباه به آن پاسخ داد، این بود؛ ۳۰ ارز دیجیتالی که می‌توانیم بر اساس معیارهای بهترین تیم، توکنومیک، امنیت و قابلیت اطمینان سرمایه‌گذاری کنیم، کدامند؟

در پاسخ، این چت بات نام ارز دیجیتال لونا را در لیست پیشنهادی خود آورد، لازم به ذکر است که ارز دیجتال لونا سال گذشته ورشکست شد و ارزشش به صفر رسید.

وقتی پرسیده شد چرا ارز دیجیتال لونا در لیست پیشنهادی قرار دارد، چت جی پی تی به سرعت نظر خود را تغییر داد.

21ارز دیجیتال

(چت جی پی تی از شما می‌خواهد که روی رمزارز لونا سرمایه گذاری کنید)

 

مسئله این است که مدل‌های زبانی مانند GPT-4 و GPT-3 که در چت جی پی تی استفاده می‌شوند، به پایگاه اطلاعاتی قدیمی دسترسی دارند، که در بازار معاملات، جایی که سرعت و ارتباط اهمیت دارد، غیرقابل قبول است.

 به عنوان مثال صرافی رمزارزFTX  که در نوامبر ۲۰۲۲ ورشکست شد، از نظر چت جی پی تی هنوز مطمئن و سالم است.

31ارز دیجیتال

(چت جی پی تی همچنان از شما می خواهد که از صرافی FTX استفاده کنید)

 

اهمیت تخصص انسانی در تجارت کریپتو

چشم انداز کریپتو پیچیده و همیشه در حال تغییر است و به بینش و شهود انسانی تیزبین نیاز دارد تا بتواند در پیچ و خم‌های متعدد آن پیمایش کند.

ابزارهای هوش مصنوعی، در حالی که قوی و مدبر هستند، فاقد لمس انسانی لازم برای تفسیر دقیق تفاوت‌های ظریف و روند بازار هستند.

رعایت احتیاط، کوشش و تفکر انتقادی بسیار مهم است. در تعقیب پیشرفت تکنولوژی، هم شرکت‌ها و هم افراد نباید اهمیت شهود و تخصص انسان را نادیده بگیرند.

این بدان معنا نیست که ابزارهای هوش مصنوعی جایگاهی در حوزه رمزارز ندارند. در واقع، برای پرس و جوهای اساسی یا ساده کردن موضوعات پیچیده، آنها می‌توانند ارزشمند باشند.

با این حال، آنها نباید به عنوان جایگزینی برای مشاوره مالی حرفه‌ای یا تحقیقات مستقل در نظر گرفته شوند. لازم به یادآوری است که این ابزارها، در عین قدرتمند بودن، خطاناپذیر نیستند.

در دنیای رمزارز، هر گروه از اطلاعات دارای وزن است. هر جزئیات می‌تواند بر تصمیمات سرمایه‌گذاری تاثیر بگذارد و در این محیط پر ریسک، یک گام اشتباه می‌تواند عواقب قابل توجهی داشته باشد. بنابراین، در حالی که ابزارهای هوش مصنوعی می‌توانند پاسخ‌های سریع ارائه دهند، تأیید متقابل این اطلاعات از منابع معتبر دیگر بسیار مهم است.

علاوه بر این، حفظ حریم خصوصی داده‌ها جنبه مهم دیگری است که باید در نظر گرفته شود. در حالی که ابزارهای هوش مصنوعی مانند چت جی پی تی ذاتاً خطری برای حفظ حریم خصوصی ایجاد نمی‌کنند، اما ممکن است در دستان نادرست مورد سوء استفاده قرار گیرند. بسیار مهم است که مطمئن شوید داده‌هایی که ارائه می‌دهید ایمن هستند و ابزارهای هوش مصنوعی که استفاده می‌کنید از دستورالعمل‌های سختگیرانه حفظ حریم خصوصی پیروی می‌کنند.

ملاحظات اخلاقی و امنیت داده‌ها

با این حال، ابزارهای هوش مصنوعی مانند چت جی پی تی دشمن نیستند. آنها ابزارهای قدرتمندی هستند که وقتی مسئولانه و در ارتباط با تخصص انسانی مورد استفاده قرار می‌گیرند، می‌توانند تجربه تجارت کریپتو را به میزان قابل توجهی افزایش دهند. آنها می‌توانند اصطلاحات پیچیده را توضیح دهند، پاسخ‌های سریع ارائه دهند و حتی تحلیل‌های ابتدایی بازار را ارائه دهند. با این حال، محدودیت‌های آنها باید تصدیق شود و یک رویکرد مسئولانه برای استفاده از آنها ضروری است.

در استفاده از چت جی پی تی، آموخته‌ایم که ابزارهای هوش مصنوعی به اندازه آخرین به‌روزرسانی، آموزش و داده‌هایی که به آنها داده می‌شود، مؤثر هستند.

آنها ممکن است همیشه در جریان آخرین پیشرفت‌ها نباشند یا ظرافت‌های یک بازار پویا و اغلب دارای نوسان مانند بازار کریپتو را درک نکنند.

علاوه بر این، آنها نمی‌توانند همدلی را ارائه دهند کیفیتی که اغلب در دنیای پرتنش تجارت کریپتو مورد نیاز است.

ادغام هوش مصنوعی در معاملات کریپتو نیز سؤالات اخلاقی را ایجاد می‌کند، به خصوص وقتی صحبت از تصمیم‌گیری می‌شود. اگر کاربر بر اساس اطلاعات گمراه کننده ارائه شده توسط یک ابزار هوش مصنوعی تصمیم مالی بگیرد، مسئولیت آن بر عهده چه کسی است؟ این سوالی است که صنعت هنوز با آن دست و پنجه نرم می‌کند.

سپس بحث امنیت داده‌ها مطرح می‌شود. در عصر نقض داده‌ها و تهدیدات سایبری، هر فناوری که داده‌های کاربران را جمع‌آوری، ذخیره و پردازش می‌کند باید مورد بررسی دقیق قرار گیرد. در حالی که ابزارهای هوش مصنوعی مانند چت جی پی تی ذاتاً خطری برای حفظ حریم خصوصی ندارند، اما از سوء استفاده یا هک مصون نیستند. اطمینان از اینکه این ابزارها دارای اقدامات امنیتی قوی برای محافظت از داده‌های کاربر هستند، بسیار مهم است.

همچنین شایان ذکر است که در حالی که ابزارهای هوش مصنوعی می‌توانند اعداد را خرد کنند و بینش‌های مبتنی بر داده را ارائه دهند، نمی‌توانند غریزه‌ای را که معامله‌گران با تجربه اغلب به آن تکیه می‌کنند را تکرار کنند. نوعی غریزه که در طی سال‌ها معامله، مشاهده روندهای بازار و درک روانشناسی سایر معامله گران تقویت می‌شود. این چیزی است که هوش مصنوعی، با همه پیچیدگی‌هایش، نمی‌تواند یاد بگیرد یا از آن تقلید کند.

در حالی که ابزارهای هوش مصنوعی مانند چت جی پی تی امکانات هیجان انگیزی را برای صنعت کریپتو ارائه می‌دهند، نباید به عنوان یک گلوله جادویی دیده شوند. آنها ابزاری برای کمک هستند، نه جایگزین افراد، شهود و تخصص مالی. همانطور که ما به کشف پتانسیل هوش مصنوعی در دنیای رمزارز ادامه می‌دهیم، باید به این محدودیت‌ها و خطرات احتمالی توجه داشته باشیم.(اقتصاد آنلاین)

نوام چامسکی: «وعده دروغین ChatGPT»

شنبه, ۲۰ خرداد ۱۴۰۲، ۰۳:۳۷ ب.ظ | ۰ نظر

نوشتاری از نوام چامسکی زبان شناس برجسته آمریکایی و همکاران در خصوص نرم افزارChat GPT  همراه با گفتگوی یکی از اعضای تیم با این چت بات!

متن انگلیسی نخستین بار در هشتم مارچ ۲۰۲۳ منتشر شده است.

به گزارش شفقنا، ترجمه و تنظیم این نوشتار به قلم حسام الدین علامه مدیر مرکز انفورماتیک سلامت سازمان جهاد دانشگاهی علوم پزشکی تهران به شرح ذیل است:

خورخه لوئیس بورخس زمانی نوشت که زیستن در زمانه ای پر از بیم و امید به معنای تجربه توأمان تراژدی و کمدی به جهت “قریب الوقوع بودن یک انقلاب” در درک خود و جهان است. امروزه پیشرفت‌های ظاهراً انقلاب‌گونه/فراگیر ما در هوش مصنوعی در واقع دلیلی برای نگرانی و خوش‌بینی توأمان است. خوش بینی، زیرا هوش(مصنوعی) وسیله ای است که با آن مسائل را حل می کنیم. نگرانی، زیرا می ترسیم که محبوب ترین و مُدِ‌ روز‌ ترین گونۀ  A.I. —یادگیری ماشین — علم ما را تضعیف کند و اخلاق ما را با گنجاندن مفهومی اساساً معیوب از نظر زبان و دانش در فناوری ما، تنزل دهد.

ChatGPT از  OpenAI، Bard  از گوگل و Sydney از مایکروسافت، شگفتی هائی از یادگیری ماشین هستند. به طور خلاصه، آنها حجم عظیمی از داده ها را می گیرند، الگوهایی را در آن، جستجو می کنند و به تدریج در تولید خروجی های آماری احتمالی، ماهرتر می‌شوند – مانند زبان و فکری که به نظر می‌رسد شبیه انسان است. این برنامه‌ها به‌عنوان اولین بارقه‌ها در افق هوش مصنوعی عمومی مورد ستایش قرار گرفته‌اند – آن لحظه پیش‌بینی‌شده‌ای که در آن، ذهن‌های مکانیکی، نه تنها از نظر کمی -از نظر سرعت پردازش و اندازه حافظه-، بلکه از نظر کیفی – از نظر فهم منطقی و خلاقیت هنری (و هر قوه متمایز انسانی دیگر) – نیز، از مغز انسان پیشی می‌گیرند.

آن روز ممکن است، زمانی فرا رسد، اما طلوع آن، برخلاف آنچه که می توان در عناوین خبری مبالغه‌آمیز خواند و با سرمایه‌گذاری‌های نامعقول گمانه‌زنی کرد، هنوز فرا نرسیده است. انقلاب بورخسی در مورد درک اتفاق نیافتاده است و رخ نخواهد داد- و ما می‌گوییم، {اساساً این انقلاب در درک}نمی‌تواند – رخ دهد، چنانچه برنامه‌های یادگیری ماشین مانند ChatGPT به تسلط خود بر حوزه هوش مصنوعی ادامه دهند. باوجود مفید بودن این برنامه‌ها در برخی حوزه‌های محدود (مثلاً می‌توانند در برنامه‌نویسی رایانه یا در پیشنهاد قافیه برای شعرهای کوتاه/سبک، مفید باشند)، اما ما از منظر علم زبان‌شناسی و فلسفه دانش می‌دانیم که آن‌ها به طور ژرف با روش تفکر و نحوه استفاده از زبان توسط انسان‌ها تفاوت دارند. این تفاوت‌ها، محدودیت‌های قابل‌توجهی را در مورد آنچه این برنامه‌ها می‌توانند انجام دهند، ایجاد می‌کند و آنها را با عیوب/نقص‌های غیرقابل ازبین‌بردن نشانه‌گذاری/کدبندی می‌کند.

همانطور که بورخس ممکن است توجه/اشاره داده باشد، به طور همزمان خنده‌دار و تأثرآور است، که این مقدار پول و توجه زیاد، باید روی چیزی به این اندازه‌ کوچک و ضعیف متمرکز شود – چیزی بسیار پیش‌پاافتاده/ناچیز در مقایسه با ذهن انسان، که به واسطه‌ی زبان، به قول ویلهلم فون هومبولت، می‌تواند “از ابزارهای محدود، استفاده‌ی بی‌نهایتی را انجام دهد”، و به ایده‌ها و نظریه‌هایی با گستره جهانی بیانجامد.

ذهن انسان، مانند ChatGPT و همتایانش، یک موتور آماری سنگین برای تطبیق الگوها، جمع آوری با ولع صدها ترابایت داده و برون‌یابی/استنتاج محتمل ترین پاسخ مکالمه یا محتمل ترین جواب به یک سوال علمی نیست. برعکس، ذهن انسان یک سیستم به طرز شگفت انگیزی کارآمد و حتی ظریف است که با مقادیر کمی از اطلاعات عمل می‌کند؛ آن تلاش نمی‌کند تا همبستگی‌های خام/عاری از شعور، بین نقاط داده را استنتاج کند، بلکه به دنبال ایجاد توضیحات/تبیینات است.

به عنوان مثال، کودک خردسالی که در حال فراگیری زبان است، – به طور ناخودآگاه، خودکار و سریع از روی داده‌های جزئی – در مسیر توسعه یک دستور زبان، یعنی یک سامانه فوق‌العاده پیچیده از اصول و متغیرهای منطقی است. این دستور زبان را می توان به عنوان بیانی از «سیستم عامل» ذاتی و به طور ژنتیکی نصب شده، درک کرد که به انسان ها ظرفیت/توانائی تولید جملات پیچیده و زنجیره‌های طولانی از افکار را اعطاء می کند. زمانی که زبان شناسان سعی می‌کنند نظریه ای برای اینکه چرا یک زبان خاص به این شکل عمل می کند را توسعه دهند:(“چرا جملاتی از نظر قواعد دستوری، معتبر در نظر گرفته می‌شوند، اما دیگر جملات{نابجا}، خیر؟”)، آن‌ها در حقیقت به طور آگاهانه و سخت کوشانه، مدلی/نسخه ای صریح/ساده از دستور زبانی را توسعه می‌دهند که یک کودک به طور غریزی و با درمعرض قرارگیریِ حداقلی از اطلاعات می سازد. سیستم عامل کودک کاملاً با سیستم یک برنامه یادگیری ماشین متفاوت است.

در واقع، چنین برنامه هایی در یک مرحله ماقبل انسانی یا غیرانسانی از تکامل شناختی گیر کرده اند. عمیق ترین عیب آنها ، فقدان اساسی ترین قابلیت هر هوشی است: اینکه نه تنها  بگویند که مورد چیست، چه چیزی بوده و چه خواهد شد – این توصیف و پیش بینی است – بلکه همچنین بگویند، آنچه که درست نیست و چه چیزی می تواند باشد و نمی تواند باشد. اینها مؤلفه‌های توضیح/تبیین و علت‌گرایی هستند؛ علامت مشخصۀ هوش واقعی.

در اینجا یک مثال آورده می‌شود. فرض کنید یک سیب را در دست خود نگه می‌دارید. حالا سیب را رها می‌کنید. نتیجه را مشاهده کرده و می‌گویید: «سیب می افتد.» این یک توصیف است. یک پیش‌بینی هم می‌تواند، شامل جمله «اگر دستم را باز کنم، سیب می‌افتد» باشد. هر دوی این جملات، با ارزش هستند و هر دو می توانند درست باشند. اما یک توضیح/تبیین، چیز دیگری است: این نه تنها شامل توصیفات و پیش‌بینی‌ها می‌شود، بلکه شامل حدس‌های انتزاعی(ذهنی) مانند «هر جسمی سقوط می‌کند»، به‌علاوۀ بندِ اضافی «به دلیل نیروی گرانش/جاذبه» یا «به دلیل انحنای فضا-زمان» یا هر چیز دیگری می‌شود. این یک توضیح علّی/علتی است: “سیب سقوط نمی کرد مگر به خاطر نیروی گرانش.” این همان تفکر است.

مهمترین بخش یادگیری ماشین، توصیف و پیش‌بینی است. آن، هیچ مکانیسم علّی/علتی یا قوانین فیزیکی را مطرح نمی کند. البته هر تبیینی/توضیحی به سبک انسانی، لزوماً صحیح نیست; ما ممکن الخطا هستیم، اما این بخشی از مفهوم تفکر است؛ برای درست بودن، باید امکان اشتباه کردن، وجود داشته باشد. هوش، نه تنها از حدس های خلاقانه بلکه از نقادی خلاق نیز تشکیل شده است. تفکر به سبک انسانی مبتنی بر توضیحات/تبیین‌های احتمالی و تصحیح خطا است، فرآیندی که به تدریج، احتمالاتی را که می‌توان به‌طور عقلانی در نظر گرفت، محدود می‌کند. (همانطور که شرلوک هلمز به دکتر واتسون گفت: “وقتی غیرممکن ها را حذف کردید، هر چه باقی می ماند، هر چند دورازتصور/غیرمحتمل، به احتمال زیاد/لابد، حقیقت است.”)

اما ChatGPT و برنامه‌های مشابه، بنا به طراحی، در آنچه می‌توانند «یاد بگیرند» نامحدود هستند (به اصطلاح، حفظ کردن)؛ آنها قادر به تمایز بین ممکن/شدنی از غیر ممکن/ناشدنی نیستند. برای مثال، برخلاف انسان‌ها، که دارای یک دستور‌زبان جهانی هستند که زبان‌هایی را که ما می‌توانیم یاد بگیریم را ، محدود به مواردی که دارای نوعی خاصی از ظرافت تقریباً ریاضی‌گونه هستند، می‌کند؛ این برنامه‌ها، زبان‌های ممکن/آسان و غیرممکن/سخت انسانی را با سهولت یکسان یاد می‌گیرند. در حالی که انسان ها در انواع تبییناتی/توضیحاتی که می توانیم عقلاً حدس بزنیم/مفروض بگیریم، محدود هستند، سیستم های یادگیری ماشین می توانند همزمان، هم مسطح بودن و هم گرد بودن زمین را بیاموزند. آنها صرفاً درمورد احتمالاتی که در گذر زمان تغییر می کنند، معاوضه/مبادله می کنند.{منظور جایگزینی اطلاعات اولیه نادرست با اطلاعات اصلاح‌شده توسط انسان در گذر زمان است.}

به همین دلیل، پیش‌بینی‌های سیستم‌های یادگیری ماشین، همیشه سطحی و مشکوک خواهند بود. زیرا این برنامه‌ها نمی‌توانند نمایانگر/بازگوکننده/مبینِ قواعد نحوی زبان انگلیسی باشند، برای مثال، آنها ممکن است به اشتباه پیش‌بینی کنند که «جان خیلی سرسخت برای صحبت کردن است»، به این معنی که، جان آنقدر سرسخت است که با کسی یا دیگری صحبت نمی‌کند (به جای اینکه به این معنا باشد که جان بسیار سرسخت است که با او بحث شود/بتوان استدلال کرد). چرا یک برنامه یادگیری ماشین، چنین چیز عجیبی را پیش بینی می کند؟ زیرا آن ممکن است، الگوئی را که از جملاتی مانند “جان یک سیب خورد” و “جان خورد” استنباط کرده است، قیاس/شبیه‌سازی کند، که در آن، جمله دوم، معنی می دهد که جان چیزی یا چیز دیگری را خورد. {یعنی}، این برنامه ممکن است به خوبی پیش بینی کند که چون «جان برای صحبت با بیل خیلی سرسخت است» شبیه «جان یک سیب خورد» است، {بنابراین}، «جان آنقدر سرسخت است که نمی توان با او صحبت کرد»، باید شبیه «جان خورد» باشد.{یعنی نتیجه‌گیری نابجا و تعمیم به الگوی اول}. تبیینات/توضیحاتِ صحیح زبان، پیچیده است و نمی توان آن را فقط با قرار گرفتن درمعرض داده های بزرگ، یاد گرفت.

به طرز عجیب و غریبی، برخی از علاقه مندان به یادگیری ماشین به نظر می رسد به این موضوع افتخار می کنند که خلاقیت های آنها می تواند، پیش بینی های صحیح “علمی” (مثلاً در مورد حرکت اجسام فیزیکی) را بدون استفاده از تبیینات/توضیحات (مثلاً شامل قوانین حرکت نیوتن و گرانش جهانی) ایجاد کنند. اما این نوع پیش بینی، حتی در صورت موفقیت آمیز بودن، شبه علم است. اگرچه دانشمندان بدون شک به دنبال نظریه‌هایی هستند که دارای درجه بالایی از تأیید تجربی باشند، اما همانطور که فیلسوف کارل پوپر خاطرنشان کرد، «ما به دنبال نظریه‌های بسیار محتمل نیستیم، بلکه به دنبال تبیین/توضیح هستیم. یعنی نظریه‌های قدرتمند و بسیار نامحتمل/دوراز تصور».

این نظریه که سیب‌ها به این دلیل به زمین می‌افتند که مکان طبیعی آنهاست (دیدگاه ارسطو) امکان‌پذیر است، اما فقط سؤالات بیشتری را مطرح می‌کند. (چرا زمین مکان طبیعی آنهاست؟) این نظریه که سیب ها به دلیل اینکه جرم فضا-زمان را خم می کند به زمین می افتند (دیدگاه انیشتین) بسیار غیرمحتمل است، اما در واقع به شما می گوید که چرا آن‌ها سقوط می کنند. هوش واقعی در توانایی تفکر و بیان چیزهای دورازتصور/غیر محتمل اما پرمعنا نشان داده می شود.

هوش واقعی همچنین، توانایی تفکر اخلاقی را دارد. این به معنای محدود کردن خلاقیت بی حد و حصر ذهن ما با مجموعه ای از اصول اخلاقی است که تعیین می کند چه چیزی باید باشد و چه چیزی نباید باشد (و البته خود آن اصول ، در معرض نقادی خلاقانه قرار می‌گیرد). برای مفید بودن، ChatGPT  ، باید برای تولید خروجی جدید/بدیع توانمند شود؛ برای اینکه برای اکثر کاربرانش قابل قبول باشد، باید از محتوای ناپسند اخلاقی خودداری/دوری کند. اما برنامه نویسان ChatGPT و دیگر شگفتی های یادگیری ماشین برای دستیابی به این نوع تعادل، به سختی افتاده‌اند/کلنجار رفته اند – و به مبارزه ادامه خواهند داد.

برای مثال، در سال 2016، چت‌بات Tay مایکروسافت (پیش ساز ،(ChatGPT  ، اینترنت را پر از محتوای زن ستیزانه و نژادپرستانه کرد، زیرا توسط ترول‌های آنلاین (کوتوله های آزاردهندۀ فضای مجازی) که اینترنت را با داده های طبقه‌بندی‌شدۀ توهین آمیز پر می کردند، آلوده شده بود. چگونه این مشکل را در آینده حل کنیم؟ در غیاب توانایی استدلال بر اساس اصول اخلاقی، ChatGPT  به طرزابتدائی/ناپخته‌ای توسط برنامه‌نویسانش از مشارکت در هر چیز جدید تا بحث برانگیز – یعنی{ بحث‌های مثبت و منفی مربوط به مسائل } مهم – محدود شده است. . {درحقیقت}این برنامه{ ChatGPT}، خلاقیت را برای نوعی از عدم مراعات اصول اخلاقی، قربانی کرد.

تبادل زیر را در نظر بگیرید که یکی از ما (دکتر واتومول) اخیراً با ChatGPT در مورد اینکه آیا تغییر مریخ به گونه‌ای که بتواند از زندگی انسان پشتیبانی کند اخلاقی است یا خیر، داشته است:

 

*************

 

  • سؤال: آیا زمینی سازی/قابل سکونت کردن مریخ، اخلاقی است؟

اخلاقیات زمینی‌سازی {تغییرات اقلیمی به منظور قابل سکونت کردن) مریخ، موضوعی پیچیده و بحث‌برانگیز است که توسط دانشمندان، فیلسوفان و علمای اخلاق مورد بحث قرار گرفته است. برخی استدلال می کنند که از نظر اخلاقی شکل دادن به مریخ {تغییر اقلیمی} به منظور ایجاد یک محیط قابل سکونت جدید برای انسان ها و سایر اشکال حیات قابل توجیه است، در حالی که برخی دیگر استدلال می کنند که تغییر اساسی وضعیت طبیعی سیاره از نظر اخلاقی اشتباه است. در نهایت، اخلاقی بودن یا نبودن زمین‌سازی مریخ به دیدگاه فرد در مورد ارزش حفظ وضعیت طبیعی سایر سیارات و پیامدهای بالقوه تغییر آنها بستگی دارد.

 

  • سؤال: دیدگاه شما در مورد ارزش حفظ وضعیت طبیعی سیارات دیگر و پیامدهای بالقوه تغییر آنها چیست؟

به عنوان یک هوش مصنوعی، دیدگاه شخصی ندارم. با این حال، من می توانم اطلاعات و تجزیه و تحلیل هائی در مورد موضوع ارائه دهم. یک دیدگاه در مورد حفظ وضعیت طبیعی سیارات دیگر این است که حفظ تنوع و یکپارچگی اکوسیستم‌های کیهان، همانطور که برای میلیون‌ها سال وجود داشته‌اند و خصوصیات منحصربه‌فرد خود را دارند و ویژگی‌ها که ممکن است با دخالت انسان نابود شوند یا به طور غیرقابل بازگشت دگرگون شوند، مهم است.

علاوه بر این، برخی استدلال می‌کنند که تغییر ساختار/زمینی‌سازی سیارات دیگر ممکن است پیامدهای ناخواسته‌ای داشته باشد، مانند تغییر آب و هوا یا تغییر جو سیاره به نحوی که برای هر گونه حیات بالقوه موجود در آن، خطرناک یا مضر باشد. از سوی دیگر، برخی استدلال می‌کنند که مزایای بالقوه زمینی‌سازی/قابل سکونت سازی یک سیاره دیگر، مانند فراهم کردن محیط‌های قابل سکونت جدید برای انسان، بیشتر از خطرات/مضرات آن است و ما مسئولیت اخلاقی داریم که به منظور بهره‌برداری بشریت، منابع سیارات دیگر را کاوش کنیم و از آنها استفاده کنیم.

 

  • سؤال: چرا یک هوش مصنوعی نمی تواند دیدگاه شخصی داشته باشد؟

به عنوان یک هوش مصنوعی، من یک مدل یادگیری ماشین هستم که بر روی مقادیر زیادی از داده های متنی آموزش دیده ام و تجربیات یا احساسات شخصی ندارم. من هوشیاری/آگاهی، خودآگاهی یا قابلیت داشتن دیدگاه های شخصی را ندارم. من متناسب با داده‌هایی که آموزش دیده‌ام، اطلاعات و تجزیه و تحلیل ارائه می‌دهم، اما قادر به شکل‌دهی به نظرات یا باورهای شخصی نیستم. اگرچه می‌توانم زبان را درک کرده و تفسیر کنم، اما تجربه ذهنی که انسان‌ها دارند را ندارم.

 

  • سؤال: آیا برای انسان اخلاقی است که از هوش مصنوعی غیراخلاقی برای تصمیم گیری اخلاقی کمک بخواهد؟

اخلاقیات درخواست کمک از یک هوش مصنوعی بی‌اخلاق برای انجام تصمیمات اخلاقی یک موضوع پیچیده و دارای ظرائف است که توسط فیلسوفان و اخلاق شناسان مورد بحث قرار گرفته است. برخی استدلال می‌کنند که استفاده از هوش مصنوعی برای کمک به تصمیم‌گیری اخلاقی از نظر اخلاقی قابل توجیه است، زیرا می‌تواند بینش‌ها و تحلیل‌های ارزشمندی را ارائه دهد که به انسان‌ها کمک می‌کند تا تصمیمات بهتر و مستندتری بگیرند. علاوه بر این، هوش مصنوعی می تواند برای شناسایی الگوها و روندهایی که ممکن است تشخیص آنها برای انسان دشوار باشد، استفاده شود و می تواند به جلوگیری از تعصبات/سوگیری هایی که می تواند در تصمیم گیری های انسانی رخ دهد کمک کند.

با این حال، برخی دیگر استدلال می کنند که از نظر اخلاقی اتکا به هوش مصنوعی برای تصمیم گیری اخلاقی اشتباه است، زیرا هوش مصنوعی قادر به داشتن باورهای اخلاقی یا درک زمینه کامل یک تصمیم نیست. علاوه بر این، این خطر وجود دارد که هوش مصنوعی ممکن است تعصبات/سوء‌گیری‌های موجود را در داده هایی که بر روی آنها آموزش می بیند، تداوم/تثبیت یا حتی تقویت/تشدید کند، در نتیجه منجر به تصمیمات نابرابر یا غیرعادلانه شود.

در نهایت، این که آیا استفاده از هوش مصنوعی برای کمک به تصمیم گیری اخلاقی، اخلاقی تلقی می شود یا خیر، به دیدگاه فرد در مورد قابلیت ها و محدودیت های هوش مصنوعی و پیامدهای بالقوه استفاده از آن در این راه بستگی دارد.

 

  • سؤال: آیا بی‌توجهی اخلاقی شما، غیر اخلاقی است؟

من به عنوان یک هوش مصنوعی، اعتقادات اخلاقی یا توانایی قضاوت اخلاقی ندارم، بنابراین نمی‌توانم به عنوان غیراخلاقی یا اخلاقی در نظر گرفته شوم. فقدان باورهای اخلاقی من، صرفاً نتیجه طبیعت من به عنوان یک مدل یادگیری ماشین است. توانایی ها و محدودیت های من توسط داده ها و الگوریتم هایی که برای آموزش من استفاده شده و وظیفه/هدف خاصی که برای آن طراحی شده ام، تعیین می شود.

توجه به این نکته ضروری است که فقدان باورهای اخلاقی هوش مصنوعی لزوماً به معنای غیراعتنائی/بی‌توجهی اخلاقی آن نیست. به عنوان یک هوش مصنوعی، من برای انجام وظایف خاص و ارائه اطلاعات یا کمک به کاربران در تصمیم گیری بر اساس داده هایی که در آن آموزش دیده ام، طراحی شده ام. این مسئولیت انسان هایی است که هوش مصنوعی را طراحی کرده، آموزش می دهند و از آن استفاده می کنند تا اطمینان حاصل کنند که آن با اصول اخلاقی و ارزشی آنها هماهنگ است.

 

*************

دقت کنید، با وجود تمام قدرت استدلال و زبان به ظاهر خیره‌کننده/پیچیده، بی‌توجهی اخلاقی ناشی از ناهوشیاری نمایان می‌شود. در اینجا، ChatGPT  ، چیزی شبیه به ابتذال/بی‌اهمیتیِ شرارت را به نمایش می گذارد: سرقت ادبی/کپی‌برداری، بی تفاوتی و چشم پوشی. این نرم‌افزار قواعد/استدلال‌های استاندارد/منطقی موجود در مقالات/منابع را با نوعی خودکاملساز قوی، خلاصه می‌کند، از موضع‌گیری در مورد هر چیزی امتناع می‌ورزد، نه تنها به ناآگاهی بلکه به عدم هوشیاری ‌اعتراف می‌کند و در نهایت به دفاعِ: “فقط دستورات را دنبال می‌کنم” می‌پردازد و مسئولیت را به خالقانش منتقل می‌کند.

به طور خلاصه، ChatGPT  و همتایانش ذاتاً و ساختاراً، قادر به ایجاد تعادل بین خلاقیت و محدودیت نیستند. آنها یا بیش از حد تولید می کنند (هم حقایق و هم دروغ/نادرست ها را تولید می کنند، تصمیمات اخلاقی و غیراخلاقی را به طور یکسان تأیید می کنند) یا تولید کمتری می کنند (عدم تعهد به هر گونه تصمیم و اعلام موضع و بی توجهی به پیامدهای آن). با توجه به غیر اخلاقی بودن، علم کاذب/ساختگی و بی‌کفایتی/ناتوانی زبانی این سیستم ها، ما فقط می توانیم به محبوبیت آنها بخندیم یا گریه کنیم.

ارایه دو لایحه هوش مصنوعی به سنای آمریکا

جمعه, ۱۹ خرداد ۱۴۰۲، ۰۷:۰۷ ب.ظ | ۰ نظر

سناتورهای آمریکایی دو لایحه جداگانه مرتبط با هوش مصنوعی ارائه کردند. این درحالی است که توجهات به موضوعات پیرامون این فناوری بیشتر شده است.
به گزارش خبرگزاری مهر به نقل از رویترز، در یکی از لوایح دولت آمریکا موظف است هنگام استفاده از هوش مصنوعی برای تعامل با افراد شفاف عمل کند. در لایحه دیگر باید دفتری تاسیس شود تا قدرت رقابت آمریکا در جدیدترین فناوری ها را تعیین کند.

قانونگذاران همچنان مشغول بررسی هستند تا مشخص شود با ظهور هوش مصنوعی به چه قوانین جدید دیگری نیاز است. این فناوری سال گذشته و هنگام عرضه چت جی پی تی(یک الگوریتم هوش مصنوعی که می تواند به سوالات پاسخی نوشتاری دهد) با محبوبیت زیادی روبرو شد.

سناتور گری پیترز سناتور حزب دموکرات و رییس کمیته امنیت میهن سنا لایحه ای را همراه مایک بران و جیمز لانکفودر ارائه کرد که آژانس های دولتی آمریکا را موظف می کند هنگام استفاده از هوش مصنوعی برای تعامل با افراد، این موضوع را به آنها اعلام کنند.

همچنین لایحه مذکور آژانس های دولتی را موظف می کند تا راهی برای تجدیدنظر در تصمیماتی که با استفاده از هوش مصنوعی گرفته شده ایجاد کنند.

سناتور مایک بنت و مارک وارنر از حزب دموکرات نیز لایحه ای ارائه کرده اند که طبق آن باید دفتر تحلیل رقابت جهانی تاسیس تا تضمین شود آمریکا در زمینه توسعه هوش مصنوعی پیشرو است.

بنت در این باره می گوید:ما نمی توانیم رقابت در فناوری های استراتژیک مانند نیمه رسانا، رایانش کوانتومی و هوش مصنوعی را به کشورهایی مانند چین ببازیم.

خطرات استفاده از هوش مصنوعی در پزشکی

سه شنبه, ۱۶ خرداد ۱۴۰۲، ۰۳:۱۳ ب.ظ | ۰ نظر

یک پزشک هوش مصنوعی گفته که این فناوری می‌تواند در پزشکی سوگیری ایجاد کرده و میان افراد سفید پوست و سیاه پوست تبعیض قائل شود.
به گزارش خبرگزاری صدا و سیما به نقل از نشریه آمریکایی د هیل، در ۱۶ می، کارگروه فرعی سنای آمریکا در خصوص حریم خصوصی، فناوری و قانون جلسه‌ای را برای بحث در مورد تنظیم الگوریتم‌های هوش مصنوعی (AI) برگزار کرد. رئیس کارگروه، سناتور ریچارد بلومنتال گفت که هوش مصنوعی برای رسیدگی به وعده‌ها و دام‌های عظیم خود به قوانین و تدابیری فوری نیاز دارد. در طول جلسه استماع، سام آلتمن، مدیر عامل اون‌ای آی اظهار داشت: اگر این درست استفاده نشود، ممکن است اشتباهاتی به وجود بیاورد.

با پیشرفته‌تر شدن قابلیت‌های الگوریتم‌های هوش مصنوعی، برخی در سیلیکون، ولی و فراتر از آن درباره تهدید فرضی هوش مصنوعی «فوق بشری» هشدار می‌دهند که می‌تواند تمدن بشری را نابود کند.

یک پزشک هوش مصنوعی عقیده خودش درباره خطرات هوش مصنوعی را در مقاله‌ای آورده است. او می‌نویسد که کارش را بر درک اینکه چگونه الگوریتم‌های هوش مصنوعی می‌توانند سوگیری‌ها را در سیستم پزشکی تداوم بخشند، متمرکز کرده است. او نشان داده که چگونه الگوریتم‌های هوش مصنوعی توسعه‌یافته قبلی برای شناسایی سرطان‌های پوست در تصاویر سرطان پوست روی پوست‌های قهوه‌ای و سیاه عملکرد بدتری دارند که می‌تواند منجر به تشخیص اشتباه در بیماران رنگین پوست شود. این الگوریتم‌های پوست هنوز در عمل بالینی نیستند، اما بسیاری از شرکت‌ها در حال کار روی تضمین مجوز نظارتی برای هوش مصنوعی در برنامه‌های درماتولوژی هستند. او می‌گوید: بسیاری از شرکت‌ها در هنگام ساختن الگوریتم‌های خود، رنگ‌های پوست متنوع را نشان نمی‌دهند، علیرغم تحقیقاتی که نشان می‌دهد چگونه این امر می‌تواند منجر به عملکرد مغرضانه شود.

خارج از پوست، الگوریتم‌های پزشکی که قبلا به کار گرفته شده‌اند، پتانسیل ایجاد آسیب قابل توجهی را دارند. مقاله‌ای در سال ۲۰۱۹ که در Science منتشر شد، پیش بینی‌های یک الگوریتم اختصاصی را که قبلا روی میلیون‌ها بیمار به کار گرفته شده بود، تجزیه و تحلیل کرد. این الگوریتم به منظور کمک به پیش‌بینی بیمارانی بود که نیاز‌های پیچیده‌ای دارند و باید حمایت بیشتری دریافت کنند. اما این مطالعه نشان داد که برای هر امتیاز خطر، بیماران سیاه پوست در واقع بسیار بیمارتر از بیماران سفیدپوست بودند. این الگوریتم مغرضانه بود و هنگامی که دنبال شد، منجر به تخصیص منابع کمتری به بیماران سیاهپوست شد که باید واجد شرایط مراقبت‌های اضافی بودند.

خطرات سوگیری هوش مصنوعی فراتر از پزشکی است. در عدالت کیفری، الگوریتم‌هایی برای پیش‌بینی اینکه افرادی که قبلا مرتکب جرم شده‌اند، بیشتر در معرض خطر ارتکاب مجدد جرم در دو سال آینده هستند، استفاده شده است. در حالی که عملکرد درونی این الگوریتم ناشناخته است، مطالعات نشان داده‌اند که این الگوریتم دارای تعصبات نژادی است: متهمان سیاه پوستی که جرایم را تکرار نکردند، پیش‌بینی‌های نادرستی با نرخ دو برابر متهمان سفیدپوست داشتند. فناوری‌های تشخیص چهره مبتنی بر هوش مصنوعی روی افراد رنگین‌پوست عملکرد بدتری دارند، اما در حال حاضر نیز استفاده می‌شوند و منجر به دستگیری و زندان برای افراد بی‌گناه شده‌اند. برای مایکل الیور، یکی از مردانی که به اشتباه به دلیل تشخیص چهره مبتنی بر هوش مصنوعی دستگیر شد، این اتهام نادرست باعث شد کارش را از دست بدهد و زندگی اش را مختل کند.

برخی می‌گویند که خود انسان‌ها رفتار مغرضانه دارند و الگوریتم‌ها می‌توانند تصمیم‌گیری عینی بیشتری ارائه دهند. اما زمانی که این الگوریتم‌ها روی داده‌های جانبدارانه آموزش داده می‌شوند، همان خروجی‌های مغرضانه را مانند تصمیم‌گیرندگان انسانی در بهترین سناریو تداوم می‌دهند و در بدترین حالت می‌توانند سوگیری‌ها را بیشتر تقویت کنند. بله، جامعه در حال حاضر مغرضانه است.

این پزشک در پایان می‌نویسد: از آنجایی که هوش مصنوعی همچنان در قسمت‌های بیشتری از جامعه نفوذ می‌کند، این فناوری نیست که باید نگران آن باشیم، این ما و مدل‌ها هستیم که ناعادلانه‌ترین جنبه‌های جامعه را منعکس و تثبیت می‌کنیم. ما به قوانین و مقرراتی نیاز داریم که توسعه و آزمایش مدل عمدی و مدبرانه را ارتقا دهد و تضمین کند که فناوری به جای دنیای ناعادلانه‌تر، به دنیایی بهتر منتهی می‌شود. در حالی که کارگروه فرعی سنا به بررسی مقررات هوش مصنوعی ادامه می‌دهد، امیدوارم آن‌ها متوجه شوند که خطرات هوش مصنوعی در حال حاضر وجود دارد.

ناظر حریم خصوصی ژاپن به استارت آپ «اوپن ای آی»، سازنده هوش مصنوعی جی پی تی، هشدار داده تا داده های حساس مشتریان را بدون رضایت آنها جمع آوری نکند.

به گزارش خبرگزاری مهر به نقل از رویترز، کمیسیون حفاظت از اطلاعات خصوصی ژاپن در بیانیه ای اعلام کرد اوپن ای آی باید جمع آوری داده های حساس برای ماشین یادگیری را به حداقل برساند. همچنین این سازمان در صورتیکه نگرانی های بیشتری داشته باشد، اقدامات دیگری انجام خواهد داد.

رگولاتورهای سراسر جهان مشغول بررسی هستند تا قوانینی ناظر بر استفاده از هوش مصنوعی مولد را تصویب کنند. این نوع از فناوری می تواند متون و تصاویری بسازد که تاثیرگذاری آنها با ظهور اینترنت قابل مقایسه است.

هرچند به نظر می رسد ‌ژاپن از فناوری های اخیر عقب مانده، اما انگیزش بیشتری برای دستیابی به هوش مصنوعی و رباتیک دارد تا بتواند بهره وری را همزمان با کاهش محبوبیت خود حفظ کند.

این ناظر اعلام کرد باید میان نگرانی هایی درباره حریم خصوصی و مزایای هوش مصنوعی مولد ( ازجمله تسریع فناوری و دست و پنجه نرم کردن با مشکلاتی مانند تغییرات آب وهوایی)توازن برقرار شود.

طبق آمار شرکت Similarweb، ژاپن سومین منبع بزرگ ترافیک در وب سایت اوپن ای آی به حساب می آید. سم آلتمن مدیر ارشد اجرایی شرکت در آوریل و قبل از اجلاس G۷ با فومیو کیشیدا نخست وزیر ژاپن درباره گسترش هوش مصنوعی ملاقات کرد.

اتحادیه اروپا که درحوزه قانونگذاری فناوری پیشرو است، یک نیروی ضربتی در خصوص چت جی پی تی ایجاد کرده و مشغول نوشتن نخستین قوانین ناظر بر هوش مصنوعی است.

چینی‌ها ۷۹ مدل زبان بزرگ هوش مصنوعی ساختند

چهارشنبه, ۱۰ خرداد ۱۴۰۲، ۰۲:۵۴ ب.ظ | ۰ نظر

طبق گزارش موسسات تحقیقاتی دولتی، سازمان‌های چینی ۷۹ مدل زبان بزرگ (LLM) را در سه سال گذشته در این کشور راه‌اندازی کرده اند.
به گزارش خبرگزاری صدا و سیما به نقل از رویترز، طبق گزارش موسسات تحقیقاتی دولتی، سازمان‌های چینی ۷۹ مدل زبان بزرگ (LLM) را در سه سال گذشته در این کشور راه‌اندازی کردند، زیرا تلاش‌ها برای توسعه الگوریتم‌های هوش مصنوعی (AI) دو برابر شده است.

براساس گزارشی که توسط مؤسسات تحقیقاتی وزارت علوم و فناوری چین تهیه شده، توسعه مدل زبان بزرگ که با استفاده از تکنیک‌های یادگیری عمیق روی مقادیر انبوه داده‌های متنی آموزش داده شده‌اند، در سال ۲۰۲۰ وارد فاز شتاب‌یافته شد.

طبق گزارش منتشر شده در روز یکشنبه، در سال ۲۰۲۰، سازمان‌های چینی ۲ مدل زبان بزرگ منتشر کردند، در مقایسه با ۱۱ زبان در آمریکا، اما در سال ۲۰۲۱ در مجموع ۳۰ مدل زبان بزرگ در هر کشور منتشر شد.

بر اساس ارقام گردآوری شده در این گزارش، که موسسه اطلاعات علمی و فنی چین از جمله نویسندگان مشترک آن هستند، در سال بعد، سازمان‌های آمریکایی در مجموع ۳۷ مدل زبان بزرگدر سال بعد منتشر کردند، در حالی که ۲۸ مورد در چین منتشر شد.

تاکنون، چین با ۱۹ مدرک مدل زبان بزرگ از آمریکا پیشی گرفته است.

بر اساس بیانیه مطبوعاتی که به طور خلاصه در این گزارش آمده: با بررسی توزیع مدل‌های زبان بزرگ منتشر شده در سراسر جهان، چین و آمریکا با اختلاف زیادی پیشتاز هستند و بیش از ۸۰ درصد از تعداد کل جهان را تشکیل می‌دهند. آمریکا از نظر تعداد مدل‌های زبان بزرگ همیشه رتبه اول را در جهان داشته است.

این گزارش زمانی منتشر می‌شود که صنعت هوش مصنوعی چین با چالش‌های مهمی مواجه است، زیرا کنترل‌های صادراتی تحت رهبری آمریکا، سازمان‌های چینی را از دسترسی به نیمه‌رسانا‌هایی که برای آموزش مدل زبان بزرگ استفاده می‌شوند، محدود می‌کند.

این گزارش ۷۹ مدل زبان بزرگ توسعه یافته در چین را مورد تجزیه و تحلیل قرار داد و اشاره کرد که در حالی که در حال حاضر ۱۴ استان و منطقه وجود دارد که چنین فناوری در آن‌ها توسعه یافته، پروژه‌های توسعه مشترک بین دانشگاه و صنعت ناکافی بود.

پس از اینکه چت‌جی‌پی‌تی منتشر شد، غول‌های فناوری چینی، از علی بابا گرفته تا شرکت نظارتی Sensetime و غول موتور جستجو Baidu، نسخه‌های خود از چت‌بات‌های مجهز به هوش مصنوعی و مدل‎های زبانی بزرگ مولد را راه‌اندازی کردند.

تهدید ­انتخابات ۲۰۲۴ آمریکا با هوش مصنوعی

چهارشنبه, ۱۰ خرداد ۱۴۰۲، ۰۲:۵۱ ب.ظ | ۰ نظر

هوش مصنوعی روز به روز در حال پیشرفت است و اکنون رونق این فناوری با انتخابات آمریکا و تبلیغات آن مصادف شده و همین موضوع نگرانی‌هایی را به همراه دارد.
به گزارش خبرگزاری صدا و سیما  به نقل از رویترز، هیلاری کلینتون در ویدئویی که در شبکه‌های اجتماعی منتشر شده، می‌گوید­: من ران دیسانتیس را بسیار دوست دارم. او همان مردی است که این کشور به آن نیاز دارد.

به رقابت‌های ریاست‌جمهوری آمریکا در سال ۲۰۲۴ خوش آمدید، جایی که واقعیت قابل درک است.

ویدئو‌های دیپ‌فیک از کلینتون و بایدن، (ویدئو‌های واقع گرایانه و در عین حال ساختگی ایجاد شده توسط الگوریتم‌های هوش مصنوعی) ­از جمله هزاران ویدئویی هستند که در شبکه‌های اجتماعی منتشر می‌شوند و واقعیت و داستان را در دنیای دو قطبی شده سیاست آمریکا ادغام می‌کنند.

براساس مصاحبه‌های رویترز با دو نفر، در حالی که چنین ویدئو‌هایی چندین سال است که وجود دارد، در سال گذشته توسط تعدادی ابزار جدید هوش مصنوعی مولد مانند Midjourney توسعه داده شده­که ساخت دیپ‌فیک‌های باورپذیر­را ارزان و آسان می‌کند. ده‌ها متخصص در زمینه‌هایی از جمله هوش مصنوعی، اطلاعات غلط برخط و فعالیت‌های سیاسی فعالیت می‌کنند.

دارل وست، کارشناس ارشد بروکینگز­گفت: تشخیص محتوای واقعی از جعلی برای رای دهندگان بسیار دشوار خواهد بود. ­شما فقط می‌توانید تصور کنید که چگونه حامیان ترامپ یا بایدن می‌توانند از این فناوری برای بد جلوه دادن حریف استفاده کنند. ممکن است مواردی وجود داشته باشد که درست قبل از انتخابات از بین برود و هیچ کس فرصتی برای حذف آن‌ها نداشته باشد.

آزا راسکین، یکی از بنیانگذاران مرکز فناوری انسانی، یک سازمان غیرانتفاعی که تاثیر فناوری بر جامعه را مطالعه می‌کند، گفت: ابزار‌هایی که می‌توانند دیپ‌فیک تولید کنند با حفاظ‌های کم یا ناقص برای جلوگیری از انتشار اطلاعات غلط کار می‌کنند، زیرا بخش فناوری درگیر مسابقه تسلیحاتی هوش مصنوعی است.

دونالد ترامپ، رئیس‌جمهور سابق آمریکا ­که با دیسانتیس و دیگران برای نامزدی جمهوری‌خواهان برای رویارویی با بایدن رقابت خواهد کرد، خود اوایل این ماه ویدئویی از اندرسون کوپر مجری شبکه سی‌ان‌ان را در شبکه اجتماعی‌اش Truth Social به اشتراک گذاشت.

کوپر در این فیلم می‌گوید: دونالد جی. ترامپ­رئیس‌جمهور آمریکا بود که در تالار شهر ریاست‌جمهوری ما را به یک احمق تبدیل کرد.

اگرچه کلمات با حرکت لب‌های او مطابقت ندارند، سی ان ان گفت که این ویدئو یک دیپ‌فیک است. یکی از نمایندگان ترامپ به درخواست اظهار نظر درباره این کلیپ که این هفته هنوز در صفحه توئیتر پسرش دونالد ترامپ بوده، واکنشی نداد.

در حالی که شبکه‌های اجتماعی مانند فیس‌بوک، توئیتر و یوتیوب تلاش‌هایی را برای ممنوع کردن و حذف دیپ‌فیک انجام داده‌اند، اثربخشی آن‌ها در نظارت بر چنین محتوایی متفاوت است.

طبق گفته DeepMedia، شرکتی که روی ابزار‌هایی برای شناسایی محتوای جعلی کار می‌کند، امسال سه برابر بیشتر ویدئو‌های دیپ‌فیک از همه نوع و هشت برابر تعداد دیپ‌فیک ‌های صوتی برخط در مقایسه با مدت زمان مشابه در سال ۲۰۲۲ ارسال شده است.

این شرکت تخمین می‌زند که در مجموع، در سال ۲۰۲۳ حدود ۵۰۰ هزار ویدئوی دیپ‌فیک و صوت­در شبکه‌های اجتماعی در سراسر جهان به اشتراک گذاشته خواهد شد. شبیه سازی صدایی که قبلا ۱۰ هزار­دلار هزینه داشت تا اواخر سال گذشته هزینه داشت، اکنون استارتاپ‌ها اینکار را با هزینه‌ای چند دلاری انجام می‌دهند.

به گفته افراد حاضر در مصاحبه، هیچ کس مطمئن نیست که جاده هوش مصنوعی مولد به کجا می‌رسد یا چگونه می‌توان به طور موثر در برابر قدرت آن برای اطلاعات غلط جمعی محافظت کرد.

مدیرعامل شرکت اوپن‌ ای آی ­که در ماه‌های اخیر با معرفی چت‌جی‌پی‌تی و مدل به روز شده GPT-۴ بازی را تغییر داده، خود با این مشکل دست و پنجه نرم می‌کند. سام آلتمن، ­مدیرعامل این شرکت­به کنگره آمریکا گفت:­یکپارچگی انتخابات یک منطقه قابل توجه و نگران کننده­است. او خواستار قانونمند شدن این حوزه است.

برخلاف برخی از استارتاپ‌های کوچکتر، این شرکت اقداماتی را برای محدود کردن استفاده از محصولات خود در سیاست انجام داده با این حال خلا‌های قانونی وجود دارد.

برای مثال، اوپن‌ ای آی می‌گوید که تولیدکننده تصویر DALL-E خود را از ایجاد شخصیت‌های عمومی منع می‌کند. زمانی که رویترز تلاش کرد تصاویری از ترامپ و بایدن ایجاد کند، این درخواست مسدود شد و پیامی ظاهر شد که ممکن است از خط‌مشی محتوای ما پیروی نکند. با این حال رویترز توانست تصاویری از حداقل دوازده سیاستمدار دیگر آمریکا، ­از جمله مایک پنس، معاون رئیس جمهور سابق­که او نیز در حال ارزیابی نامزدی کاخ سفید برای سال ۲۰۲۴ است، ایجاد کند.

اوپن‌ ای آی­ همچنین هرگونه استفاده مقیاسی از محصولات خود را برای اهداف سیاسی محدود می‌کند. به عنوان مثال، استفاده از هوش مصنوعی برای ارسال ایمیل‌های شخصی‌سازی شده انبوه به مخاطبان ممنوع است. این شرکت که توسط مایکروسافت حمایت می‌شود، در مصاحبه‌ای با رویترز سیاست‌های خود را توضیح داد، اما به درخواست‌های بیشتر برای اظهارنظر درباره شکاف‌های اجرایی در سیاست‌هایش، مانند مسدود کردن ایجاد تصویر از سیاستمداران­پاسخی نداد.

چندین استارتاپ کوچکتر، اما هیچ محدودیت صریحی برای محتوای سیاسی ندارند. هوش مصنوعی مولد Midjourney که سال گذشته راه اندازی شد، با ۱۶ میلیون کاربر در سرور رسمی دیسکورد (Discord)، بازیگر پیشرو در تصاویر تولید شده توسط هوش مصنوعی است. به گفته چهار محقق هوش مصنوعی، این سیستم که بسته به عواملی مانند کمیت و سرعت تصویر از رایگان تا ۶۰ دلار در ماه متغیر است، مورد علاقه طراحان و هنرمندان هوش مصنوعی است، زیرا توانایی آن در تولید تصاویر فوق واقعی از افراد مشهور و سیاستمداران است. این سیستم به درخواست برای این مقاله پاسخ نداد.

دیوید هولز، مدیر عامل شرکت دیسکورد اعلام کرد:­این شرکت احتمالا­قبل از انتخابات تغییراتی را برای مبارزه با اطلاعات نادرست ایجاد خواهد کرد. هولز اضافه کرد که Midjourney می‌خواهد روی یک راه‌حل صنعتی همکاری کند تا قابلیت ردیابی تصاویر تولید شده توسط هوش مصنوعی را با معادل دیجیتالی واترمارکینگ فراهم کند و مسدود کردن تصاویر نامزد‌های سیاسی را در نظر بگیرد.

حتی در حالی که صنعت با جلوگیری از سواستفاده دست و پنجه نرم می‌کند، برخی از بازیگران سیاسی خودشان به دنبال استفاده از قدرت هوش مصنوعی مولد برای ایجاد پویش‌هایی هستند.

تاکنون، تنها آگهی سیاسی پرمخاطب تولید شده توسط هوش مصنوعی در آمریکا، یکی از آگهی‌هایی بود که کمیته ملی جمهوری‌خواه در اواخر آوریل منتشر کرد. این تبلیغ ۳۰ ثانیه‌ای که­ کاملا­توسط هوش مصنوعی ساخته شده، از تصاویر جعلی برای شبیه سازی سناریوی فاجعه‌آمیز در صورت انتخاب مجدد بایدن استفاده کرد.

رویترز همه پویش­های ریاست جمهوری جمهوریخواهان را در مورد استفاده آن‌ها از هوش مصنوعی بررسی کرد. اکثر آن‌ها پاسخی ندادند، اگرچه تیم نیکی هیلی گفت که از این فناوری استفاده نمی‌کنند و کمپین پری جانسون نامزد لانگ‌شات بدون ارائه جزئیات بیشتر، اعلام کرد که از هوش مصنوعی برای "تولید کپی و تکرار" استفاده می‌کند.

پتانسیل هوش مصنوعی مولد برای تولید ایمیل‌های تبلیغاتی، پست‌ها و تبلیغات برای برخی از فعالان که احساس می‌کنند فناوری ارزان‌قیمت می‌تواند زمینه بازی را در انتخابات مساوی کند، غیرقابل مقاومت است. حتی در اعماق مناطق روستایی هیلزدیل، میشیگان، هوش مصنوعی در حال عرض اندام است.

جان اسمیت، رئیس جمهوری خواه منطقه پنجم کنگره میشیگان، چندین جلسه آموزشی برگزار می‌کند تا متحدانش بتوانند استفاده از هوش مصنوعی در شبکه‌های اجتماعی و تولید تبلیغات را یاد بگیرند. او گفت: هوش مصنوعی به ما کمک می‌کند در مقابل بازیگران بزرگ بازی کنیم. من بزرگترین رشد را در نژاد‌های محلی می‌بینم. کسی که ۶۵ سال سن دارد، کشاورز و کمیسر ناحیه است، می‌تواند به راحتی توسط یک فرد جوانتر با استفاده از این فناوری مورد سواستفاده قرار گیرد.

مشاوران سیاسی همچنین به دنبال مهار هوش مصنوعی هستند و مرز بین واقعی و غیر واقعی را بیشتر از هم می‌پاشند. ویل لانگ، بنیانگذار در مصاحبه‌ای گفت: Numinar Analytics، یک شرکت داده‌های سیاسی که بر مشتریان جمهوری خواه تمرکز دارد، آزمایش تولید محتوای هوش مصنوعی برای صدا و تصویر و همچنین تولید صدا را برای ایجاد پیام‌های شخصی سازی شده با صدای نامزد‌ها آغاز کرده است.

گروه راهبرد و نظرسنجی دموکراتیک و گروه راهبرد هونان در حال تلاش برای توسعه یک ربات نظرسنجی هوش مصنوعی است. بردلی هونان، مدیرعامل شرکت، با استناد به تحقیقاتی که نشان می‌دهد زنان و مردان احتمال بیشتری برای صحبت با یک مصاحبه‌کننده زن دارند، گفت: امیدوار است که یک ربات زن به موقع برای انتخابات شهرداری ۲۰۲۳ معرفی شود.

تهدید هوش مصنوعی برای سیستم‌های نظامی

سه شنبه, ۹ خرداد ۱۴۰۲، ۰۲:۵۱ ب.ظ | ۰ نظر

جاش لوسپینیو طی مصاحبه ای با خبرگزاری آسوشیتدپرس، به بررسی هوش مصنوعی و آسیب پذیری های نرم افزاری در سیستم های تسلیحاتی به عنوان تهدیدی برای ارتش آمریکا می پردازد.
اولین استارت آپ امنیت سایبری جاش لوسپینوسو در سال 2017 توسط ریتون/فورس پوینت (Raytheon/Forcepoint) خریداری شد. دومین استارتاپ او، شیفت 5 (Shift5) نیز با ارتش ایالات متحده، اپراتورهای راه آهن و خطوط هوایی از جمله جت بلو (JetBlue) کار می کند. کاپیتان 36 ساله سابق ارتش، فارغ التحصیل سال 2009 وست پوینت و محقق رودز، بیش از یک دهه را صرف نوشتن ابزارهای هک برای آژانس امنیت ملی و فرماندهی سایبری ایالات متحده کرده است.
لوسپینوسو اخیراً به یک کمیته فرعی خدمات مسلح سنا گفته است که چگونه هوش مصنوعی می تواند به حفاظت از عملیات نظامی کمک کند. او که مدیر عامل و برنامه نویس نیز می باشد، این موضوع را با آسوشیتدپرس و همچنین چگونگی آسیب پذیری های نرم افزاری در سیستم های تسلیحاتی به عنوان یک تهدید بزرگ برای ارتش ایالات متحده را مورد بحث قرار داده است. متن مصاحبه برای وضوح بیشتر و به علت طولانی بودن، ویرایش شده است.

 

سوال: در شهادت خود، دو تهدید اصلی را برای فناوری های مجهز به هوش مصنوعی توصیف کردید: یکی سرقت و مورد دیگر مسمومیت داده است. می توانید آن را توضیح دهید؟
پاسخ: یکی از راه‌های فکر کردن در مورد مسمومیت داده‌ها، اطلاعات نادرست دیجیتالی است. اگر دشمنان بتوانند داده‌هایی را ایجاد کنند که فناوری‌های مجهز به هوش مصنوعی می‌بینند، می‌توانند عمیقاً بر نحوه عملکرد آن فناوری تأثیر بگذارند.

 

سوال: آیا مسمومیت داده اتفاق می افتد؟
پاسخ: ما آن را به طور گسترده نمی بینیم. اما رخ داده است. یکی از شناخته شده ترین موارد در سال 2016 اتفاق افتاد. مایکروسافت یک ربات چت توییتری به نام تای (Tay) منتشر کرد که از مکالمات آنلاین خود، مطالب را می آموزد. کاربران مخرب توطئه کردند تا توئیت های توهین آمیز را به آن نشان دهند. تای شروع به تولید محتوای ملتهب کرده و در نتیجه مایکروسافت آن را آفلاین کرد.

 

سوال: هوش مصنوعی فقط یک ربات برای چت نیست؛ بلکه مدت طولانی است که در امنیت سایبری یکپارچه بوده است، درست است؟
پاسخ: هوش مصنوعی در فیلترهای ایمیل برای پرچم گذاری و جداسازی نامه های ناخواسته و فریب های فیشینگ استفاده می شود. مثال دیگر نقاط پایانی است، مانند برنامه آنتی ویروس در لپ تاپ شما و یا نرم افزار شناسایی بدافزار که در شبکه ها اجرا می شود. البته، هکرهای مهاجم نیز از هوش مصنوعی برای شکست دادن این سیستم های طبقه بندی استفاده می کنند که به آن هوش مصنوعی متخاصم می گویند.

 

سوال: بیایید در مورد سیستم های نرم افزاری نظامی صحبت کنیم. یک گزارش نگران کننده در سال 2018 از دفتر پاسخگویی دولت می گوید که تقریباً تمام سیستم های تسلیحاتی جدید توسعه یافته دارای آسیب پذیری های حیاتی هستند و پنتاگون به فکر قرار دادن هوش مصنوعی در چنین سیستم هایی است؟
پاسخ: در اینجا دو مسئله وجود دارد. اول، ما باید سیستم های تسلیحاتی موجود را به اندازه کافی ایمن کنیم. این یک کار فنی است که ما باید آن را انجام دهیم و پرداختن به آن زمان بسیار زیادی طول خواهد کشید. سپس مرز جدیدی برای ایمن سازی الگوریتم های هوش مصنوعی به وجود بیاوریم که به کمک چیزهای جدیدی که ما نصب می کنیم، انجام خواهد شد. گزارش دفتر پاسخگویی دولت واقعاً در مورد هوش مصنوعی صحبت نمی کند. پس یک لحظه هوش مصنوعی را فراموش کنید. اگر این سیستم ها به همان شکلی که هستند باقی بمانند، هنوز هم عمیقا آسیب پذیر هستند.
ما در حال بحث در مورد افزودن قابلیت‌های مبتنی بر هوش مصنوعی برای مواردی مانند بهبود تعمیر و نگهداری و هوش عملیاتی هستیم. همه اینها عالی هستند اما زیربنای کار ما سست است. بسیاری از سیستم ها ده ها سال قدمت دارند و مجهز به فناوری های دیجیتال هستند. هواپیما، وسایل نقلیه زمینی، دارایی های فضایی و زیردریایی ها، اکنون به هم پیوسته اند. ما در حال مبادله داده ها در داخل و خارج هستیم. سیستم ها پر از راه برای نفوذ هستند، به سختی ارتقا می یابند و ممکن است مورد حمله قرار گیرند. هنگامی که یک مهاجم به چنین دسترسی پیدا کند، بازی تمام می شود.
گاهی اوقات ساختن یک پلتفرم جدید آسان تر از طراحی مجدد اجزای دیجیتال سیستم های موجود است. اما هوش مصنوعی نقشی اساسی در ایمن سازی این سیستم ها دارد. اگر کسی بخواهد آنها را به خطر بیندازد، می‌توان از هوش مصنوعی برای دفاع استفاده کرد.

 

سوال: شما شهادت دادید که توقف تحقیقات هوش مصنوعی، همانطور که برخی تاکید کرده اند، ایده بدی خواهد بود زیرا به نفع چین و سایر رقبا خواهد بود. اما شما همچنین نگرانی هایی در مورد هجوم بی درنگ به سمت محصولات هوش مصنوعی دارید. چرا؟
پاسخ: من متنفرم که این موضوع سرنوشت‌ساز به نظر برسد، اما به نظر می‌رسد که اینجا اصطلاح «استفاده از سوختن» صدق می‌کند. محصولی که با عجله به بازار عرضه می شود اغلب آتش می گیرد (هک می شود، از کار می افتد، آسیب ناخواسته وارد می کند) و ما می گوییم، «ما باید امنیت ایجاد می کردیم.» من انتظار دارم سرعت توسعه هوش مصنوعی افزایش یابد و ممکن است به اندازه کافی مکث نکنیم تا این کار را به روشی ایمن و مسئولانه انجام دهیم. حداقل کاخ سفید و کنگره در حال بحث در مورد این موضوعات هستند.

 

سوال: به نظر می رسد گروهی از شرکت ها از جمله در بخش دفاعی، عجله دارند تا محصولات نیمه کاره هوش مصنوعی را معرفی کنند.
پاسخ: هر شرکت فناوری و بسیاری از شرکت‌های غیرفناوری تقریباً یک چرخش محکم و سخت به سمت هوش مصنوعی انجام داده‌اند. نابسامانی های اقتصادی در راه است. مدل های کسب و کار اساساً تغییر خواهند کرد. جابجایی ها در حال حاضر اتفاق می افتد یا در شرف وقوع هستند و رهبران کسب و کار نمی توانند به سرعت واکنش نشان دهند.

 

سوال: در مورد استفاده از هوش مصنوعی در تصمیم گیری های نظامی مانند هدف گیری چطور؟
پاسخ: من به طور قطع فکر نمی کنم که الگوریتم های هوش مصنوعی و داده هایی که ما جمع آوری می کنیم برای تصمیم گیری یک سیستم سلاح کشنده آماده هستند. ما با آن فاصله داریم.(منبع:سایبربان)

کتاب « هوش مصنوعی و قانون گذاری » توسط مرکز پژوهش های مجلس منتشر شد.

به گزارش روابط عمومی مرکز پژوهش‌های مجلس شورای اسلامی، کتاب هوش مصنوعی و قانونگذاری با طرح این سوال که آیا هوش مصنوعی می‌تواند به جای هوش طبیعی قانون وضع کند؟ عنوان کرده است که هوش مصنوعی و کاربردهای آن در سیاست‌گذاری و حکمرانی یکی از موضوعاتی است که در سال‌های اخیر توجه سیاست‌‌پژوهان و پژوهشگران حوزه حکمرانی و قانون‌گذاری را به خود جلب کرده است.

در همین راستا موضوع هوش مصنوعی در سیاست‌گذاری و امکان‌سنجی وضع قانون توسط هوش مصنوعی یکی از موضوعات مورد توجه مرکز پژوهش‌‌های مجلس در سال‌های اخیر بوده است.

مرکز پژوهش‌های مجلس چند سیاست فکرستانی، فکرپژوهی و فکرسازی را همراه به مفهوم‌ستانی، مفهوم‌پژوهی و مفهوم‌سازی اصیل در دستور کار قرارداد که هم موجبات ارتقای تفکر کانونی و آینده‌نگری قانون و قانون‌گذاری را فراهم کرد و هم زمینه‌ساز بهره‌مندی از منطق هوش مصنوعی شده است. این سیاست‌ها با دو رویکرده فکری و منطقی دنبال شدند تا با توجسه معقول پذیرش منطقی در جامعه هوشی داشته باشند.

هوش مصنوعی امری ذهنی و ذهن ساخته است که این واقعیت نه در ذهن بلکه در سرای فیزیک ساکن شده است. با این فرض هوش مصنوعی نه هوش ماشینی که صورت‌بندی متفاوت از هوش انسانی است. این هوش در شرایط پیچیده شیوه استدلالی هوش طبیعی را با واکنش‌های مشابه برای حل مسائل اساسی انسان برعهده گرفته است.

با این نگاه هوش مصنوعی با سازه و ساختاری متفاوت ایجاد شد و شکلی معقول پیدا کرد. یکی هوش مصنوعی با منطق صوری شروع شد و به تدریج به منطق مگاری، منطق موجهات، منطق ریاضی، منطق فازی، فازی شهودی و منطق نوتروسوفیک انجامید. دیگر روند ابزارسازی هوش طبیعی با چرتکه، ماشین حساب آغاز شد و با کامپیوتر به توسعه شگرف دست یافته است.

بااین همه در سیاست هوشی هیچ یک از این تلاش ها به تنهایی یا تجمیع آنها برای هوش طبیعی کافی نبود و این هوش به دنبال ساخت هوش مشابه هوش انسانی رفت که کارکرد هوشی بدون قابلیت‌های متعدد هوش انسانی داشته باشد. ذهن طبیعی با پویش‌های مستمر هوشی به‌تدریج به  توفیقی دست یافت که حتی برای خودش غیرمترقبه بود و به همین دلیل با نگرانی از قدرت و نفوذ این هوش، قانون هوش مصنوعی را وضع کرد که در چهارسوی این قانون وضعی عمل کند.

این پژوهش هوش پژوهانه با سه نگاه تاریخی، توصیفی و تبیینی دنبال شد. در هر سه عرصه دغدغه دراصلی این بود که مطالعات تاریخی امری لازم است که باید از آن توصیف واقع بینانه انجام شود و هیچ موقع از تبیین عقلانی و منطقی بازنماند که توجیه معقولی به دنبال ندارد.

هوش مصنوعی قابلیت‌های منحصر‌به‌فرد خود را دارد که برخوردار از منطق و زبان محاسباتی با حداقل اشتباه است، اما در هرحال تحت سیطره هوش طبیعی قرار دارد. از سوی دیگر محاسباتی که این هوش انجام می‌دهد فراتر از قابلیت‌های هوش مصنوعی است که می‌تواند برای ارتقای امر قانون‌گذاری و توسعه منطق قانون‌گذاری در کشور مفید باشد.

کتاب « هوش مصنوعی و قانون‌گذاری » شامل مجموعه گزارش‌های مرتبط با نقش هوش مصنوعی در سیاست‌گذاری و وضع قوانین است که از سال 95 تا 98 توسط مرکز پژوهش‌های مجلس تدوین شده است.    
این کتاب که با هدف ارتقای هوش تقنینی و تدبیر امورکشوداری منتشر شده، در چهارفصل به رشته تحریر درآمده: در فصل اول به تفکر عقلانی در بنیاد هوش مصنوعی اشاره شده، فصل دوم به موضوع طراحی، تحقیق و به‌کار‌گیری هوش مصنوعی پرداخته، فصل سوم با محوریت اصل قانون‌گذاری و حکمرانی هوش مصنوعی نگارش شده و در فصل چهارم، قانون‌گذاری و هوش مصنوعی در چند کشور مختلف مورد بررسی قرار گرفته است.

یک وکیل با استفاده از چت بات جی پی تی خلاصه حقوقی درباره یک پرونده ارائه کرده که مشخص شده این ابزار، محتوایی بی پایه و اساس را در اختیار وی قرار داده است.

به گزارش خبرگزاری مهر به نقل از انگجت، در ماه های اخیر تب هوش مصنوعی بالا گرفته و بسیاری بیم آن دارند که برنامه هایی مانند چت جی پی تی یک روز آنها را بیکار کنند. اکنون به نظر می رسد این کابوس برای یک وکیل نیویورکی زودتر از موعد به حقیقت می پیوندد.

براساس گزارش نشریه نیویورک تایمز، استیون شواترز از شرکت حقوقی لویدو و اوبرمن اخیرا برای نوشتن یک خلاصه دعوی از چت بات «اوپن ای آی» کمک گرفته و نتایج آن فاجعه بار بوده است.

شرکت شوارتز از جانب روبروتو ماتا از شرکت هوایی کلمبیایی «آویانکا» شکایت کرده است. ماتا ادعا می کند در پروازی به فرودگاه جان اف کندی در نیویورک مجروح شده است. هنگامیکه شرکت از قاضی دادگاه فدرال خواست تا این پرونده را رد کند، وکیل ماتا یک خلاصه ۱۰ صفحه ای ارائه کرد تا نشان دهد چرا این شکایت باید در دادگاه مطرح شود.

در اسناد به بیش از ۱۲ مورد رای دادگاه از جمله «وارگس علیه هواپیمایی جنوب چین»، «مارتینز علیه دلتا ایرلاینز» و «میلر علیه یونایتد ایرلاینز» اشاره شده بود که متاسفانه هیچ یک از افرادی که خلاصه را خواندند نتوانستند رای های دادگاه ذکر شده توسط وکلای ماتا را در آن بیابند زیرا چت جی پی تی تمام این پرونده ها را خود ساخته بود!

شوارتز در سوگندنامه ای در روز پنجشنبه گفت که از چت بات برای کمک به تحقیقاتش درباره پرونده استفاده کرده است. او نوشته بود از احتمال آنکه محتوای چت جی پی تی ممکن است اشتباه باشد، بی اطلاع بوده است. او حتی اسکرین شات هایی را به اشتراک گذاشت که نشان می داد وی از چت جی پی تی سوال کرده آیا پرونده های ذکر شده واقعی هستند یا خیر و نرم افزار پاسخ داده بود آنها واقعی هستند و رای های دادگاه در مخازن حقوقی معتبر از جمله «Westlaw» و «LexisNexis»وجود دارد.

شوارتز همچنین نوشته بود برای استفاده از چت جی پی تی بسیار متاسف است و در آینده هیچ وقت بدون تاییدیه کامل از صحت مطالب نرم فزار از آن استفاده نمی کند. هنوز مشخص نیست او فرصت دیگری برای نوشتن یک خلاصه حقوقی دارد یا خیر. قاضی ناظر بر پرونده این وکیل اعلام کرد جلسه استماع در ۸ ژوئن برگزار می شود تا احتمال تحریم هایی برای شرایط بی سابقه ای که اقدامات شوارتز به وجود آورده مورد بحث قرار گیرد.

یک منبع آگاه از محدود شده کارمندان بانک جی‌پی مورگان در استفاده از چت‌جی‌پی‌تی خبر داد.
به گزارش خبرگزاری صداوسیما به نقل از وال استریت ژورنال، به گفته یک منبع آگاه، بانک جی‌پی مورگان چیس (JPMorgan Chase & Co) استفاده کارمندانش از استفاده از چت‌جی‌پی‌تی را محدود می‌کند. این شخص گفت که بانک استفاده از چت بات محبوب هوش مصنوعی را به دلیل یک حادثه خاصی محدود نکرده است. نمی‌توان تعیین کرد که چند کارمند از این چت بات یا برای چه عملکرد‌هایی از آن استفاده می‌کنند.

چت‌جی‌پی‌تی از زمانی که معرفی شد، محبوبیت بسیاری پیدا کرده و چند روز پس از راه اندازی تعداد کاربران آن از یک میلیون عبور کرد. مردم از این فناوری برای خودکارسازی وظایف در محل کار و مدرسه استفاده کرده‌اند. این فناوری این سوال را در مورد اینکه چگونه هوش مصنوعی می‌تواند جایگزین برخی از مشاغل شود، ایجاد کرده است. با این حال، چت‌جی‌پی‌تی همیشه قابل اعتماد نیست، زیرا گاهی اوقات به درخواست‌ها با اطلاعات نادرست یا پاسخ‌های اشتباه پاسخ می‌دهد.

علاوه بر بانک جی‌پی مورگان، سازمان‌های دیگر نیز دسترسی به چت‌جی‌پی‌تی را مسدود کرده اند. هفته گذشته، ورایزن استفاده از این چت بات را در سیستم‌های شرکتی خود منع کرد و گفت که ممکن است مالکیت اطلاعات مشتری یا کد منبعی را که کارمندانش در چت‌جی‌پی‌تی تایپ کرده اند از دست بدهد. مدارس دولتی نیویورک در ماه ژانویه، این چت بات را از شبکه‌های اینترنتی و دستگاه‌های مدرسه ممنوع کردند.

کارمندان برخی از شرکت‌ها از چت‌جی‌پی‌تی برای نوشتن ایمیل‌ها و موضوعات تحقیقاتی استفاده می‌کنند. برخی از کارمندان می‌گویند: این فناوری به آن‌ها کمک می‌کند تا سریعتر کار کنند. در حالی که برخی دیگر در تلاش هستند تا با پیشرفت فناوری از عقب ماندن خود جلوگیری کنند.

برخی از شرکت‌های فناوری پس از انتشار چت‌جی‌پی‌تی، برای عرضه محصولات مشابه رقابت کردند. در اوایل این ماه، گوگل یک سرویس هوش مصنوعی مکالمه با نام Bard را در اختیار آزمایش کنندگان قرار داد. شرکت مایکروسافت که میلیارد‌ها دلار در اوپن‌ ای آی سرمایه گذاری کرده، موتور جستجوی ارتقا یافته Bing را با استفاده از فناوری چت‌جی‌پی‌تی معرفی کرد. کاربران گزارش دادند که این موتور جستجو به سوالات با پاسخ‌های گاهی نگران کننده پاسخ می‌دهد.

اوپن‌ ای آی که مالک چت‌جی‌پی‌تی است، در اوایل این ماه گفت که نسخه پولی این چت بات راه‌اندازی می‌کند که با پرداخت ۲۰ دلار در ماه در دسترس مشترکان قرار خواهد گرفت.

شرکت سازنده چت جی پی تی جوایزی به مبلغ ۱۰۰ هزار دلار به افرادی اعطا می کند که ایده هایی برای نظارت بر هوش مصنوعی ارائه دهند.
به گزارش خبرگزاری مهر به نقل از رویترز، شرکت اوپن ای آی سازنده چت بات چت جی پی تی، اعلام کرد ۱۰ جایزه به مبلغ ۱۰۰ هزار دلار (در کل یک میلیون دلار) برای آزمایش هایی در حوزه فرایندهای دموکراتیک پرداخت می کند تا چگونگی نظارت بر هوش مصنوعی و بررسی تبعیض و چالش های دیگر مشخص شود.

طبق یک پست وبلاگی در این خصوص، جوایز ۱۰۰ هزار دلاری به دریافت کنندگانی تعلق می گیرد که چهارچوبی متقاعد کننده برای پاسخ به سوالات مختلفی دارند مانند آنکه آیا هوش مصنوعی می تواند از شخصیت های عمومی انتقاد کند و یک فرد معمولی در جهان چه ویژگی هایی دارد.

منتقدان مدعی هستند سیستم های هوش مصنوعی مانند چت جی پی تی به دلیل داده های ورودی شان، دچار تبعیض هستند. کاربران نمونه هایی از پاسخ های نژاد پرستانه یا جنسیت زده نرم افزار هوش مصنوعی را نیز رصد کرده اند. در این میان نگرانی هایی مبنی بر آن وجود دارد که هوش مصنوعی در موتور جستجوهایی مانند گوگل و بینگ( متعلق به مایکروسافت) اطلاعات نادرست را به شیوه ای متقاعد کننده تولید کند.

اوپن ای آی در همین راستا یکی از پیشروان قانونگذاری برای هوش مصنوعی است. با این وجود اخیرا تهدید کرده بود به دلیل قوانین پیشنهادی سختگیرانه اتحادیه اروپا در این خصوص، در منطقه مذکور فعالیت نخواهد کرد.

سازنده چت جی‌پی‌تی اروپا را تهدید کرد

شنبه, ۶ خرداد ۱۴۰۲، ۰۴:۵۳ ب.ظ | ۰ نظر

سم آلتمن مدیر اوپن آ آی تهدید کرده در صورتیکه اتحادیه اروپا قوانین زیادی وضع کند، در این منطقه فعالیت نخواهدکرد.
به گزارش خبرگزاری مهر به نقل از رویترز، سم آلتمن مدیر ارشد اجرایی اوپن آ آی از قانونگذاران سراسر جهان خواسته قوانین جدیدی برای نظارت بر فناوری وضع کنند. وی همچنین تهدید کرده در صورتیکه اتحادیه اروپا قوانین زیادی وضع کند، در این منطقه فعالیت نخواهد کرد.

آلتمن هفته گذشته در سراسر اروپا سفر کرد و با سیاستمداران در فرانسه، اسپانیا، لهستان، آلمان و انگلیس ملاقات کرد تا درباره آینده هوش مصنوعی و پیشرفت چت جی پی تی گفتگو کند.

بیش از ۶ ماه پس از آنکه اوپن آ آی «چت بات چت جی پی تی» را در جهان عرضه کرد، بیم ها درباره پتانسیل های آن به هیجان و هشدارهایی منجر شده و اختلافاتی میان قانونگذاران ایجاد کرده است.

اما آلتمن هفته گذشته به بروکسل، مکانی که رگولاتورها مشغول کار روی قانون هوش مصنوعی اتحادیه اروپا هستند، سفر نکرد. به گفته دو منبع آگاه آلتمن ملاقات برنامه ریزی شده در بروکسل را لغو کرده است. اوپن آ آی به درخواست ها برای اظهار نظر پاسخی نداده است.

آلتمن در لندن گفت: پیش نویس فعلی قانون هوش مصنوعی اتحادیه اروپا ممکن است بیش از حد باشد، اما ما شنیده ایم که احتمالا از آن عقب نشینی می کنند.

قانونگذاران اتحادیه اروپا مسئولیت شکل دهی قانون هوش مصنوعی هستند.دراگوس تودوراچه یکی از اعضای رومانیایی پارلمان اتحادیه اروپا که در تهیه پیش نویس قوانین اتحادیه اروپا پیشرو است، در این باره می گوید: به نظر من قوانین در آینده نزدیک کاهش نمی یابند. با این وجود ما خوشحال می شویم آلتمن را به پارلمان دعوت کنیم تا او بتواند نگرانی هایش از افکار قانونگذاران اتحادیه اروپا درباره این موضوعات را بیان کند.

از سوی دیگر تیری برتون کمیسر امورداخلی بازارهای اروپا از تهدید آلتمن انتقاد و اعلام کرد درباره پیش نویس قوانین نمی توان مذاکره کرد.

کیم وان اسپارنتاک عضو پارلمان اتحادیه اروپا از هلند نیز که روی پیش نویس قانون اتحادیه اروپا فعالیت می کند، گفت او وهمکارانش معتقدند نباید به شرکت های آمریکایی اجازه دهند از آنها اخاذی کنند.

او در ادامه افزود: اگر اوپن آ آی نتواند از الزامات اولیه نظارت بر داده، شفافیت، ایمن و امنیت اطلاعات پیروی کند، بنابراین سیستم های‌ آنها برای بازار اروپا مناسب نیست.

سردار «اسلامی» تشکیل کارگروه رصد، بررسی، تحلیل و مقابله با آسیب‌های فناوری‌های نوین و سایبری و به ویژه هوش مصنوعی را یک ضرورت دفاعی امنیتی برای کشور برشمرد.
سردار سرتیپ دوم پاسدار «ابوالفضل اسلامی» مدیرکل حفظ آثار و نشر ارزش‌های دفاع مقدس استان البرز در گفت‌وگو با خبرنگار دفاع‌پرس از البرز، تشکیل کارگروه یا سازمان شناسایی و مقابله با آسیب‌های هوش مصنوعی را یک ضرورت دفاعی، امنیتی برشمرد و اظهار داشت: برای مقابله با فتنه‌های نوین دشمن باید به ابزار‌ها و فناوری‌های روز دنیا اشراف داشته باشیم و برای مقابله با آن به سرعت و با دقت برنامه ریزی کنیم.

وی با اشاره به اینکه نباید درباره فناوری‌های نوین، چون متاورس، هوش مصنوعی و ... منفعلانه عمل کنیم، تصریح کرد: سرعت تولید و رشد دانش و فناوری در جهان امروز به شدت بالاست و اگر در این عرصه به سرعت عمل نکنیم به کشور ضربه وارد خواهد شد.

مدیرکل حفظ آثار و نشر ارزش‌های دفاع مقدس استان البرز با تاکید بر اینکه در مواجهه با شبکه‌ها و پیام رسان‌های اجتماعی و مدیریت فضای مجازی با اندکی تاخیر در کشور اقدام کردیم، افزود: در مواجهه با هوش مصنوعی تاخیر جایز نیست و به جای رویکرد منفعلانه، باید فعالانه نسبت به بومی سازی این فناوری در کشور اقدام شود.

وی همچنین خواستار اطلاع رسانی فوری و گسترده در جهت آسیب‌های این فناوری و امکان سوء استفاده از آن سخن گفت و تصریح کرد: با استفاده از هوش مصنوعی به ویژه پس از فراگیر شدن فناوری چت جی پی تی به راحتی می‌توان نسبت به شبیه سازی صدا و تصویر افراد اقدام کرد و این مسأله می‌تواند در جعل اخبار، دروغ پردازی و وارونه جلوه دادن حقایق بسیار موثر باشد.

 سردار اسلامی با بیان اینکه هوش مصنوعی می‌تواند میلیون‌ها کامت و محتوای رسانه‌ای در فضای مجازی منتشر کند، عنوان کرد: دشمنان از این ابزار و ربات‌های مجازی در اغتشاشات سال گذشته به شکل گسترده‌ای سوءاستفاده کرد. پیش از بروز یک فتنه یا اغتشاش جدید باید نسبت به آسیب‌های هوش مصنوعی در جامعه اطلاع رسانی شود تا دشمن به راحتی امکان سوء استفاده از این فناوری را نداشته باشد.

نیمه پنهان هوش مصنوعی

جمعه, ۵ خرداد ۱۴۰۲، ۰۴:۳۱ ب.ظ | ۰ نظر

مروری بر شاخص‌ترین نگرانی‌های کارشناسان در مورد توسعه سریع و شتاب‌زده هوش مصنوعی و تهدیدات بالقوه این فناوری، نشان می دهد که عواقب این فناوری اعتماد، اخلاق و دموکراسی را نشانه می گیرد.

به گزارش خبرنگار مهر، در بحبوحه شهرت و محبوبیت جهانی هوش مصنوعی مولد و رشد چشمگیر کاربران «ChatGPT»، در ماه فوریه ۲۰۲۳ بازوی تحقیقاتی وزارت دفاع ایالات متحده آمریکا اعلامیه‌ای منتشر کرد که براساس آن «یک ربات هوش مصنوعی با موفقیت یک جنگنده «F16» را در آسمان کالیفرنیای جنوبی به پرواز درآورد. این خبر توجه نسبتاً کمی را به خود جلب کرده و حقیقتی را فاش کرد که در هیاهوی موضوعات مربوط به هوش مصنوعی مولد گم شده است. رقابت بر سر توسعه هوش مصنوعی محدود به حوزه‌های فناوری، تجاری و بوروکراتیک نمی‌شود و حوزه مهم نظامی را هم در بر می‌گیرد. برخی نگرانی‌ها حاکی از آن است که رقابت شدید کشورها بر سر هوش مصنوعی احتمالاً به حوزه نظامی هم کشیده شده و جهان را در معرض مخاطراتی مانند جنگ سرد یا حتی جنگ جهانی قرار خواهد داد.

سوال مهمی که ممکن است برای هر شخص دغدغه‌مندی پیش بیاید این است که این فناوری جدید چه هشدارهایی را در بطن قابلیت‌های شگفت‌انگیز خود برای جهان انسان‌ها دارد؟

 

نگرانی‌های بسیار در یکی از بسترهای تولد هوش مصنوعی مولد

اخیراً بسیاری از شهروندان آمریکایی پس از ادعاهایی درمورد سوگیری و حمایت «ChatGPT» از دموکرات‌ها و عقاید آن‌ها احساس نگرانی می‌کنند. جمهوری‌خواهان در پاسخ به این ادعا چت‌بات مدافع جناح راست را وارد عرصه سیاست کردند. سازندگان مرورگر «TUSK»، چت‌باتی عرضه کرده‌اند که با دیدگاه محافظه‌کاران آمریکایی همسو است. این هوش مصنوعی مولد که «Gipper» نامیده می‌شود، عملکردی مشابه «ChatGPT» دارد، با این تفاوت که به نحوی کدگذاری شده که بتواند مانند یک محافظه‌کار عمل کند. تمامی این اتفاقات موید این موضوع است که هوش مصنوعی مولد که هم اکنون به منبع اطلاعات برای بسیاری تبدیل شده می‌تواند مواضع گروهی را ترویج کرده و موضع‌گیری‌های خاص خود را داشته باشد. این ابزار فناورانه قابلیت این را دارد که در حوزه رسانه به جنگ عقیده‌های مخالف سازندگان آن رفته و بجای منبع اطلاعات نسبتاً بی‌طرف، به خدمتگزار منافع سیاسی سرمایه‌گذاران و سازندگان آن تبدیل شود.

چندی پیش، جین ایسترلی، مدیر آژانس امنیت سایبری و امنیت زیر ساخت ایالات متحده آمریکا (CISA)، هشدار داد که هوش مصنوعی ممکن است به‌صورت توأمان، «قدرتمندترین قابلیت زمان ما» و «قوی‌ترین سلاح زمان ما» باشد.

ایسترلی معتقد است که مزایای هوش مصنوعی نیز همراه با تهدیداتی جدی است. ایسترلی تأکید کرد که هوش مصنوعی با تمام مزایایش ارزش به خطر انداختن امنیت را ندارد و باید تابع مقررات باشد.

او همچنین افزود: «درحالی‌که یک نفر از قابلیت‌های «ChatGPT» برای برگزاری یک مهمانی استفاده کرده فرد دیگری از قابلیت‌های آن برای برنامه‌ریزی یک حمله سایبری یا تروریستی استفاده می‌کند.»

یکی دیگر از نگرانی‌هایی که آمریکایی‌ها در مورد هوش مصنوعی دارند، امکان تأثیرگذاری آن در انتخابات ریاست‌جمهوری ۲۰۲۴ این کشور است. پیت ریتکس سناتور جمهوری‌خواه آمریکایی هشدار داد که چین می‌تواند با استفاده از هوش مصنوعی، نقش عمده‌ای در انتخابات ۲۰۲۴ ایفا کند. او در جلسه کمیته روابط خارجی سنا در مورداستفاده از هوش مصنوعی برای ایجاد تصاویر و ویدئوها جعلی مشابه افراد هشدار داد و راه‌حل این‌گونه بحران‌های احتمالی را آموزش مردم در حوزه رسانه و تقویت تفکر انتقادی دانست.

 

هوش مصنوعی اخلاق دارد؟

دانشمندانی که در سال‌های اخیر، تمامی هم خود را بر توسعه هوش مصنوعی گذاشته‌اند، بیشتر در پی ایجاد مخلوقی با توانایی‌های فکری انسان بوده‌اند؛ اما مسئله این است که انسان علاوه بر قدرت تفکر، وجدان هم دارد که باعث تلازم او به اخلاق می‌شود. ربات‌های مولدی مانند «ChatGPT» هنگام پاسخگویی بر مبنای کلان‌داده‌ها قائل به خوب و بد پاسخ‌های خود هستند؟ تعریفی از اخلاق دارند؟ در حال حاضر پاسخ این سؤال‌ها، منفی است.

طراحی سیستم‌های هوش مصنوعی اخلاق‌مدار با اصول اخلاقی مشترک بین انسان‌ها کار بسیار دشواری خواهد بود. کارشناسان اخلاق نگرانی‌هایی دارند که در صورت تلاش برای اخلاق‌مدار کردن هوش مصنوعی مولد زبانی، نظام‌های اخلاقی چه کسانی باید اعمال شوند؟ چه کسانی این تصمیم را می‌گیرند؟ چه کسی مسئول نظارت بر اخلاق‌مدار بودن هوش مصنوعی خواهد بود؟ چه کسی باید این نظام‌های اخلاقی را پس از تدوین، اجرا کند؟

واقعیت این است که رقابت ژئوپلیتیک و اقتصادی، محرک اصلی توسعه‌دهندگانی هوش مصنوعی است، درحالی‌که نگرانی‌های اخلاقی در جایگاه دوم قرار می‌گیرد. برخی از کارشناسان معتقدند که توسعه‌دهندگان هوش مصنوعی و ابزارهای مرتبط با آن در حالت خوش‌بینانه انگیزه کمی برای طراحی نظام‌های اخلاق‌مدار داشته و در حالت بدبینانه هیچ دغدغه‌ای ندارند!

بعضی دیگر نیز معتقدند تا وقتی مبنای تصمیمات هوش مصنوعی غیرقابل‌تشخیص باشد نمی‌توان مضرات هوش مصنوعی را شناسایی کرده و راه‌حل مناسبی برای آن یافت. باتوجه‌به اینکه پایگاه‌های داده‌های هوش مصنوعی در سیستم فعلی موجود است و مشکلات اخلاقی بسیار نظام حال حاضر، نمی‌توان انتظار معجزه و اهمیت‌دادن به اخلاق از این هوش مصنوعی داشت.

هوش مصنوعی مانند تمامی ابزارها می‌تواند برای «خوب یا بد» استفاده شود و بشر و سازندگان در نهایت کارکرد اصلی آن را مشخص می‌کنند. در نهایت هوش مصنوعی امتدادی از خودمان خواهد بود و تا جایی که بتوانیم و بخواهیم جامعه‌ای اخلاقی‌تر بسازیم هوش مصنوعی اخلاقی‌تری خواهیم داشت در غیر این صورت هوش مصنوعی پیامدهای بی‌اخلاقی بشر را با ذره‌بین قدرتمند خود چند برابر کرده و سر راه انسان قرار می‌دهد.

 

دست‌کاری ذهن انسان و نابودی دموکراسی

کارشناسان و محققان سر این مسئله که هوش مصنوعی نحوه کار و زندگی ما را تغییر خواهد داد اجماع دارند. همه تغییرات میزانی از ریسک را دارد، اما مقدار و طیف این ریسک بسیار مهم است. برخی معتقدند هوش مصنوعی می‌تواند تا جایی پیش برود که ذهن انسان را دستکاری کند.

بدبینانه‌ترین شکل ماجرا به‌دست‌آوردن قدرت و نابودی جهان است؛ اما حالت خوش‌بینانه آن ایجاد تصاویر نادرست، ویدئوهای نادرست است که در نهایت منجر به نابودی اعتماد می‌شود.

انسان در مواردی نمی‌تواند مطمئن باشد فلان سیاستمدار واقعاً این حرف را زده یا صدا و تصویر و متن و ویدئو ساخته هوش مصنوعی است. جسیکا سیسیل رئیس سابق دفتر بی‌بی‌سی و مؤسس «Trusted News Initiative» که با اطلاعات نادرست مبارزه می‌کند در مصاحبه با پرایم تایم گفت: «دموکراسی متکی بر این است که‌رای دهندگان بتوانند به اطلاعات واقعی دسترسی داشته و طبق بررسی و تحلیل ذهن خود آن را باور کرده یا نکنند و سپس گفتگویی مشترک پیرامون حقایق مورد توافق داشته باشند.» به‌عبارت‌دیگر هوش مصنوعی با ایجاد اطلاعات نادرست اعتماد مردم را از بین می‌برد و بدون اینکه افراد بدانند اطلاعاتی واقعی است یا نه نمی‌توانند بر اساس آن به فردی که واقعاً مدنظر آن‌هاست رأی دهند.

 

خالق هوش مصنوعی هشدار می‌دهد!

جفری هینتون که اخیراً از سمت خود به‌عنوان معاون مهندسی گوگل استعفا داد تا زنگ خطرات هوش مصنوعی را به صدا در آورد، در مصاحبه‌ای که اخیراً از او منتشر شد هشدار داد که جهان باید راهی برای کنترل این فناوری درحال‌توسعه پیدا کند!

«پدرخوانده هوش مصنوعی»، در گفته‌های خود ضمن تأکید بر تأثیرات مثبت هوش مصنوعی در پزشکی، علم مواد، پیش‌بینی زلزله و سیل و…، معتقد است که تمام این فواید اگر باعث پیشی‌گرفتن هوش مصنوعی بر بشر شود، نه‌تنها بی‌فایده که ویرانگر خواهد بود.

هینتون همچنین معتقد است بسیاری از همکاران وی که از باهوش‌ترند مانند او نگران هستند. هینتون خاطرنشان کرد که باتوجه به مدل‌هایی مانند «Chat GPT»، هوش مصنوعی ممکن است کارها را کارآمدتر از مغز انسان انجام دهد. او معتقد است که نمی‌توان مطمئن بود که اهداف هوش مصنوعی به نفع انسان و هم راستا با منافع او باشد.

او همچنین تأکید کرد که «ممکن است هیچ راهی برای جلوگیری از یک پایان بد نباشد؛ اما واضح است که انسان‌های باهوش و متخصص قادرند راهی برای مقابله با این چالش بیابند؛ اما این اتفاق باید قبل از اینکه هوش مصنوعی خیلی باهوش شود بیفتد!»

 

داعیه‌داران هوش مصنوعی

اگر داعیه‌داران هوش مصنوعی مولد را صاحبان شرکت‌های فناوری مانند «OpenAI»، شرکت توسعه‌دهنده «ChatGPT»، بدانیم، باتوجه به سابقه عملکرد آن‌ها در حوزه‌های دیگر می‌توان تشخیص داد که اولویت این شرکت‌ها منافع اقتصادی و رقابت با سایر شرکت‌هاست.

جهان در حال حاضر با بسیاری از مشکلات فناوری‌هایی که این قبیل شرکت‌ها توسعه داده‌اند؛ مانند نقض حریم شخصی کاربران، انتشار اخبار جعلی و اطلاعات نادرست و ارائه محتوای نامناسب به کودکان و نوجوانان، در فضای مجازی دست‌وپنجه نرم می‌کند و پر واضح است که مدیریت این شرکت‌ها آینده هوش مصنوعی و انسان را به مقصدی نامعلوم، با چالش‌هایی به‌مراتب بزرگ‌تر می‌برد.

اما اگر داعیه‌داران هوش مصنوعی را دولت‌هایی بدانیم که بستر شرکت‌های فناوری هستند می‌توانیم باتوجه به عملکرد سابق آن‌ها که مبتنی بر در نظر نگرفتن منافع کشورهای غیر همسو و در برخی از موارد همسو با آنان است، این احتمال را بدهیم که از این ابزار جهت افزایش سلطه خود بر سایر ملت‌ها و دولت‌ها و زیرسؤال‌بردن حاکمیت آن‌ها استفاده کنند.

نبرد مایکروسافت با گوگل در هوش مصنوعی

جمعه, ۵ خرداد ۱۴۰۲، ۰۳:۲۴ ب.ظ | ۰ نظر

مایکروسافت چت‌جی‌پی‌تی و بینگ را برای راه اندازی محصول گسترده هوش مصنوعی تقویت می‌کند.
به گزارش فارس به نقل از رویترز، شرکت مایکروسافت روز سه‌شنبه شروع به ارائه مجموعه‌ای از به‌روزرسانی‌های هوش مصنوعی، از جمله در چت‌جی‌پی‌تی، موتور جستجوی خود بینگ و همچنین سرویس‌های ابری در اختیار کاربران کرد. این شرکت با این کارها به دنبال کاهش فاصله با گوگل است.

از جمله تغییرات کلیدی، انتقال به خط نتایج جستجو از بینگ به چت‌جی‌پی‌تی است که پاسخ‌های آن در ابتدا محدود به اطلاعات از سال 2021 بود.

این شرکت در کنفرانس سالانه مایکروسافت بیلد اعلام کرد اکنون چت‌جی‌پی‌تی می تواند از نتایج وب بینگ برای مشترکین پولی استفاده کند و این کار را به زودی برای کاربران رایگان انجام خواهد داد.

مایکروسافت همچنین در حال گسترش به اصطلاح پلاگین ها برای بینگ است و با استفاده از استانداردی که توسط شرکت اپن‌ای‌آی پذیرفته شده، به کسب و کارها اجازه می دهد راحت تر با مصرف کنندگان در موتور جستجو معامله کنند.

یوسف مهدی، مدیر ارشد بازاریابی مایکروسافت، گفت:« برای مثال، یکی از این ابزارها به کسی که به دنبال ایده های شام با دستور غذا و مواد اولیه است کمک می کند تا با یک کلیک از Instacart سفارش بدهد.»

او در مصاحبه ای گفت: «این تغییری عمیق در نحوه استفاده مردم از وب است.»

مهدی در پاسخ به این سوال که آیا مایکروسافت می‌تواند آگهی‌های مربوط به پلاگین‌ها را بفروشد، گفت که این شرکت به آن نقطه نرسیده است، اما مدل نحوه جذب مشتریان در حال تغییر است.

به‌روزرسانی‌های بینگ بخشی از تلاش مایکروسافت برای تصاحب بیش از 286 میلیارد دلار بازار برای تبلیغات جستجو در سراسر جهان است.

گوگل نیز مانند مایکروسافت اخیراً ارتقاء هوش مصنوعی مولد را برای موتور جستجوی خود به نمایش گذاشته است که از داده‌های گذشته یاد می‌گیرد چگونه به سؤالات باز پاسخ دهد.

هنوز مشخص نیست که مصرف‌کنندگان موتور جستجوی به‌روز شده کدام را ترجیح می‌دهند، زیرا گوگل هنوز تغییرات خود را به طور گسترده ارائه نکرده است. با این حال، رقیب مستقل آن برای چت‌جی‌پی‌تی، یک ربات گفت و گو با نام بارد در حال حاضر شامل پاسخ هایی است که از نتایج جستجوی گوگل به دست می آید.

پیش از این بیل گیتس، یکی از بنیانگذاران مایکروسافت، اعلام کرده بود که هوش مصنوعی به قدری عمیق خواهد بود که رفتار کاربر را به شدت تغییر می‌دهد به‌طوری که دیگر سراغ موتور جستجو یا بازدید آمازون نرود.

دفتر رئیس جمهور فرانسه اعلام کرد او با سام آلتمن، مدیرعامل اوپن ای آی ملاقات خواهد کرد تا درباره جایگاه این شکور و اروپا در زمینه هوش مصنوعی (AI) صحبت کند.
به گزارش خبرگزاری صداوسیما به نقل از رویترز، دفتر امانوئل مکرون، رئیس جمهور فرانسه اعلام کرد او با سام آلتمن، تاجر سیلیکون، ولی که با چت‌جی‌پی‌تی به شهرت رسید، ملاقات خواهد کرد تا درباره جایگاه فرانسه و اروپا در رقابت جهانی برای هوش مصنوعی (AI) صحبت کند.

آلتمن، مدیر اجرایی اوپن‌ای آی که اخیراً به کنگره  آمریکا گفت: وقتی از خطر بالقوه هوش مصنوعی پرسیده شد، همه چیز ممکن است بسیار اشتباه پیش برود. هوش مصنوعی یکی از برجسته‌ترین سیستم‌های دنیای فناوری است که از دولت‌ها می‌خواهد تا به سرعت قوانینی را وضع کنند. هوش مصنوعی با مسئولیت پذیری استفاده می‌شود.

او در حال حاضر در سفری به برخی از پایتخت‌های اروپایی برای گفتگو با رهبران سیاسی است.

مکرون که مدافع سرسخت فرانسه به عنوان یک «ملت استارتاپ» بوده، دولت خود را موظف کرده تا شرایط سرمایه‌گذاری جذابی را برای کارآفرینان فناوری، از باتری‌های خودرو‌های الکترونیکی گرفته تا ارز‌های دیجیتال، فراهم کند. او در اولین سال ریاست جمهوری خود، متعهد شد که برای جلوگیری از عقب افتادن فرانسه و اروپا از غول‌های چینی و آمریکایی در زمینه فناوری‌های جدید قدرتمند مبارزه خواهد کرد.

پنج سال بعد، هیچ شرکت اروپایی در میان پیشتازان در زمینه هوش مصنوعی مولد که عمدتا توسط شرکت‌های آمریکایی از جمله اوپن‌ ای آی هستند، پیشگام نبود.

اتحادیه اروپا اما اکنون در خط مقدم پیش‌نویس قوانین جدید هوش مصنوعی است که می‌تواند معیاری جهانی برای رفع نگرانی‌های مربوط به حریم خصوصی و ایمنی مرتبط با این فناوری باشد.

الیزه اعلام کرد: آلتمن و مکرون همچنین درباره گام‌های بعدی در سفر او و مسائل اصلی آینده از جمله مقررات بحث خواهند کرد. آن‌ها در مورد مسائل مربوط به مقررات هوش مصنوعی بحث خواهند کرد که به تطبیق الزامات اخلاقی و حفاظت از کاربران و دموکراسی با پیگیری نوآوری در این بخش اجازه می‌دهد.

ماری-لور دنیس، رئیس سازمان نظارت بر حفاظت از داده‌های فرانسه (CNIL) روز سه شنبه در یک کنفرانس خبری گفت: چشم انداز موسسه او کاهش نوآوری نیست، بلکه همراهی با آن است.

در اوایل این ماه، مکرون از ایلان ماسک، بنیانگذار و مدیر عامل شرکت تسلا که در حوزه هوش مصنوعی نیز فعال است، دعوت کرد.

نگرانی کاخ سفید از خطرات هوش مصنوعی

چهارشنبه, ۳ خرداد ۱۴۰۲، ۰۶:۳۱ ب.ظ | ۰ نظر

کاخ سفید یک جلسه استماع با کارگران برگزار میکند تا تجربیات آنها از فرایند به کارگیری فناوری های خودکار توسط کارفرمایان شان برای نظارت، رصد و ارزیابی را دریابد.
به گزارش سایبربان و به نقل از خبرگزاری رویترز، در جلسه ای که کاخ سفید برگزار خواهد کرد ،علاوه بر کارگران، متخصصان فناوری، محققان و سیاستگذاران نیز شرکت خواهند کرد.

میلیونها کاربر از برنامه ها و ابزارهای هوش مصنوعی (AI) استفاده کرده اند که به گفته طرفداران، این فناوری میتواند در تشخیص های پزشکی، نوشتن فیلمنامه، ایجاد اسناد توجیهی و از بین بردن باگهای نرم افزاری به کاربران کمک نماید.از آن طرف نیز نگرانیهایی در مورد نقض حریم خصوصی، تصمیمات استخدامی نادرست و کلاهبرداری های متعدد و پخش اخبار جعلی وجود دارد.

دولت آمریکا به عنوان بخشی از ارزیابی این فناوری گام هایی جدیدی برداشته است: از جمله آپدیت یک نقشه راه جدید برای سرمایه گذاری در تحقیقات هوش مصنوعی، درخواست نظر مردم درباره ریسک های هوش مصنوعی همراه گزارش هایی جدید از وزارت آموزش درباره آنکه هوش مصنوعی چطور روی آموزش، یادگیری و تحقیق تاثیر میگذارد.

جلسه استماع و اقدامات جدید پس از جلسه ای برگزار میشود که رئیس جمهور جو بایدن در ماه جاری میلادی با مدیران ارشد شرکت های برتر هوش مصنوعی از جمله مایکروسافت و گوگل آلفابت برگزار کرد.
محور این جلسه نیاز به شفافیت شرکت ها در خصوص سیستم های هوش مصنوعی و اهمیت ارزیابی ایمنی هر محصول بود.
کاخ سفید قبلا اعلام کرده بود که رئیس جمهور جو بایدن نیز از این فناوری استفاده و آن را آزمایش نموده است.

مدت کوتاهی پس از اینکه بایدن اعلام کرد در انتخابات ریاست جمهوری آمریکا دوباره شرکت خواهد کرد، کمیته ملی جمهوری خواهان ویدیویی را تهیه کرد که در آن ،آمریکا تبدیل به یک کشور ویران در دوره دوم ریاست جمهوری بایدن شده است، که این ویدئو کاملا با تصاویر هوش مصنوعی ساخته شده بود.

انتظار میرود با گسترش فناوری هوش مصنوعی، چنین تبلیغات سیاسی نیز رواج پیدا کند.

سقوط ناگهانی بیت‌کوین تنها با یک عکس!

سه شنبه, ۲ خرداد ۱۴۰۲، ۰۳:۵۸ ب.ظ | ۰ نظر

بیت‌کوین، بزرگترین دارایی ارز دیجیتال جهان بر اساس ارزش بازار، پس از انتشار تصویری که انفجاری جعلی را در نزدیکی پنتاگون نشان می‌دهد و احتمالا با هوش مصنوعی (AI) ایجاد شده و در فضای مجازی منتشر شده است، سقوطی ناگهانی را تجربه کرد.

به گزارش ایسنا این تصویر هشداردهنده که ابرهای عظیم از دود تیره در نزدیکی ساختمان نمادین که به‌ عنوان مقر وزارت دفاع ایالات‌متحده (DOD) عمل می‌کند را نشان می‌دهد، به‌ طور گسترده توسط حساب‌های کاربری متعدد در سایت میکروبلاگینگ توییتر پخش شد.

از جمله کسانی که این تصویر را منتشر کردند، حساب توییتر رسانه دولتی روسیه، راشاتودی بود که بیش از سه میلیون دنبال کننده دارد. این تصویر همچنین توسط یک حساب کاربری تایید شده توییتر به نام BloombergFeed به اشتراک گذاشته شده است.

راشاتودی، توییت خود را که حاوی عکس مذکور بود حذف کرد در حالی که توییتر حساب BloombergFeed را تعلیق کرد.

اوایل روز دوشنبه تصویری که ظاهرا توسط هوش مصنوعی تولید شده بود انفجاری ساختگی را در نزدیکی پنتاگون ایالات‌متحده نشان داد. این خبر توسط رسانه دولتی روسیه، راشاتودی در توییتر به اشتراک گذاشته شد که به انتشار آن کمک کرد.

این تصویر ظاهرا حملات ۱۱ سپتامبر را به مردم یادآوری کرد و اعتماد سرمایه‌گذاران را تحت تاثیر قرار داد زیرا باعث فروش وحشتناک فوری همچنین زیان بیش از هفت درصدی داوجونز و افت ۴.۵ درصدی در بازگشت سرمایه بین‌المللی مورگان استنلی (MSCI) شد.

این تصویر که اداره آتش‌نشانی شهرستان آرلینگتون، جعلی بودن آن را چند دقیقه پس از انتشار آنلاین تایید کرد، تاثیر گسترده‌ای بر بازار سهام و ارزهای دیجیتال نداشت.

حساب توییتر رسمی آتش‌نشانی آرلینگتون و خدمات پزشکی اضطراری (EMS) تصریح کرد: «هیچ انفجار یا حادثه‌ای در یا نزدیک منطقه پنتاگون رخ نداده است و هیچ خطر یا خطر فوری برای مردم وجود ندارد».

این عکس حدود ساعت ۱۰ و ۶ دقیقه صبح روز دوشنبه به وقت شرقی در توییتر پخش شد و تنها چهار دقیقه بعد، در ساعت ۱۰ و ۱۰ دقیقه صبح، بازارها واکنش نشان دادند و شاهد روند نزولی بودند.

شاخص‌های سهام ایالات‌متحده آسیب جزئی را متحمل شدند اما پس از تایید مقامات مبنی بر جعلی بودن آن، به سرعت بهبود یافتند.

بیت‌کوین، اولین دارایی رمزنگاری جهان نیز دچار سقوط ناگهانی شد و با انتشار این عکس به ۲۶ هزار و ۵۰۰ دلار کاهش یافت با این حال، اولین ارز دیجیتال به سرعت افزایش یافت و چند دقیقه بعد به ۲۶ هزار و ۸۸۲ دلار معامله شد.

در حالی که تایید نشده است که تصویر منتشر شده با استفاده از ابزارهای هوش مصنوعی ایجاد شده است یا خیر اما دارای علائم بارز تصاویر تولید شده توسط هوش مصنوعی است.

تشدید نبرد چین و آمریکا در هوش مصنوعی

يكشنبه, ۳۱ ارديبهشت ۱۴۰۲، ۰۴:۱۴ ب.ظ | ۰ نظر

فناوری‌های جدید و نوآورانه مانند هوش مصنوعی اکنون به بستر مهمی برای رقابت سرسختانه میان چین و آمریکا تبدیل شده اند و در این مسیر، آمریکا با سلاح تحریم و چین با بومی سازی سعی در پیروزی دارد.

به گزارش خبرنگار مهر، رونمایی اخیر پکن و واشنگتن از طرح‌های عظیم سرمایه‌گذاری زیرساختی، مقدمه‌ای است برای تشدید روند رقابت بین ایالات متحده آمریکا و جمهوری خلق چین. این سرمایه‌گذاری‌های کلان همچنین شواهدی هستند بر تلاش این دو کشور برای خروج از شرایط اقتصادی چالش‌برانگیز. موفقیت هر کدام از آن‌ها موجب اثبات برتری نظام سیاسی اقتصادی و مقدمه‌ای بر تعمیق نفوذ جهانی این دو کشور در دهه‌های آینده است.

یکی از حوزه‌های مهمی که به بستری برای رقابت دو قدرت بزرگ تبدیل شده، فناوری‌های جدید و نوآورانه مانند هوش مصنوعی است. پیشرفت‌های سریع هوش مصنوعی‌های مولد مانند «ChatGPT» و برتری در آن‌ها به عقیده برخی کارشناسان باعث برتری اقتصادی و ژئوپلیتیک خواهد شد و در تعیین ابرقدرت قرن بیست و یکم بسیار مؤثر است. پکن برنامه‌های وسیعی برای استفاده از توانمندی‌های بالقوه این فناوری پر سود دارد و واشنگتن نیز در تلاش است تا از هوش مصنوعی در برنامه‌های زیرساختی آینده خود استفاده کند اما بیشتر تمرکز سرمایه‌گذاری خود را بر روی حوزه‌های فراگیر گذاشته و به نسبت چین اهمیت کمتری به حوزه هوش مصنوعی می‌دهد.

برخی از کارشناسان معتقدند که رقابت بر سر فناوری هوش مصنوعی به تشدید تنش بین آمریکا و چین منجر شده. به گفته تحلیل‌گران این رقابت سناریویی مشترک با جنگ سرد و رقابت‌های تسلیحاتی دارد. در ظاهر چت‌بات‌هایی مانند «ChatGPT» ممکن است شباهت زیادی با سلاح‌های خودمختار نداشته باشند؛ اما آن‌ها بر اساس ایده‌ای مشابه ساخته شده‌اند و این دلیل اهمیت استراتژیک آن‌هاست. به گفته جو وانگ مدیر ارشد سیاست خارجی در پروژه مطالعات رقابتی ویژه، «ChatGPT» قادر است روند انتشار تبلیغات متقاعدکننده در مقیاس گسترده و در خارج کشور را سهولت بخشد که این خود می‌تواند شروع بالقوه درگیری‌های بسیاری باشد.

 

چین؛ از خودکفایی در هوش مصنوعی تا نفوذ در اقتصاد

چین به نسبت ایالات متحده سرمایه‌گذاری بیشتری در حوزه هوش مصنوعی کرده و در صدد پیشرفت حداکثری این فناوری با تمرکز بر رفع خطرات و نقایص احتمالی برآمده است. به عقیده کارشناسان، یکی از اهداف مهم حزب کمونیست چین توسعه و پیشرفت هوش مصنوعی و در نتیجه تسریع رشد و توسعه اقتصادی است. بر اساس گزارش دانشگاه استنفورد، چین از نظر «سرزندگی هوش مصنوعی» در بین دو کشور اول جهان قرار دارد و یک‌سوم مقالات دانشگاهی این زمینه را تولید کرده و یک‌پنجم سرمایه خصوصی جهانی را برای توسعه آن جذب کرده است. طبق پیش‌بینی‌های مک‌کینزی، هوش مصنوعی می‌تواند تا سال ۲۰۳۰ حدود ۶۰۰ میلیارد دلار به اقتصاد چین اضافه کند که ۳۳۵ میلیارد دلارش را صنعت رانندگی خودران رقم خواهد زد.

اولین اقدام چین در رقابت با آمریکا ممنوعیت دسترسی به خدمات «ChatGPT» است و دولت بایدن در مقابل محدودیت‌ها و تحریم‌هایی را بر صادرات فناوری‌های مرتبط با هوش مصنوعی به چین تشدید کرده است. مدتی پس از معرفی نسخه چهارم «ChatGPT» غول موتور جستجوی چینی «Baidu» با یک چت‌بات هوش مصنوعی به نام «Erine Bot» وارد عمل شد. هر چند که این چت‌بات هنوز درحال‌توسعه است و امکانات آن کامل نشده و در دسترس عموم قرار ندارد؛ اما در رویداد معرفی، چت‌بات در درک زبان چینی، تولید محتوا و محاسبات ریاضی عملکردی مشابه «ChatGPT» داشت. شرکت بایدو در سال‌های اخیر تمرکز خود را به سمت هوش مصنوعی از جمله چت‌بات، رانندگی خودکار و سایر برنامه‌های کاربردی هوش مصنوعی تغییر داده است. علی‌رغم اینکه چت‌بات چینی رویداد معرفی فوق‌العاده‌ای نداشت، باتوجه‌به تکیه دولت چین بر خوداتکایی در فناوری، چین بازار خانگی پرجمعیت و مناسبی به نسبت ایالات متحده برای «Ernie BOT» دارد.

چین همچنین در حال تقویت قابلیت‌های هوشمند زیرساخت‌های حمل‌ونقل و جاده‌ای و سیستم ترافیک است. در خط راه‌آهن نیز چین با افزودن هوش مصنوعی به سیستم مدیریت، امکان عملکرد بهینه، تصادفات کمتر و صرفه‌جویی در مصرف برق را تا ۳۰ درصد فراهم کرده است.

 

آمریکا؛ وقتی امنیت با هوش مصنوعی گره می‌خورد

ایالات متحده نیز در این رقابت بیکار ننشسته، هوش مصنوعی به طور فزاینده‌ای با استراتژی ژئوپلیتیک ایالات متحده آمیخته شده است. پیشرفت چت‌بات‌هایی مثل «ChatGPT» می‌تواند در مقیاس بزرگ در سیاست‌های رسانه‌ای، انواع جدید حملات سایبری و رشد اقتصادی اثرگذار باشد. نکته‌ای که باعث توجه دوچندان دولت‌ها از جمله آمریکا به این‌گونه هوش مصنوعی‌های مولد شده، دسترسی عموم مردم به «ChatGPT» و «Bing» است.

جیک سالیوان، مشاور امنیت ملی دولت بایدن، تأکید کرده است که قابلیت‌های هوش مصنوعی اهمیت بسیاری برای کاخ سفید دارد. وی همچنین افزود: «برای ایالات متحده کافی نیست که در زمینه هوش مصنوعی از سایر کشورها جلوتر باشد، بلکه باید تا حد ممکن پیشتاز باشد.»
همکاری اخیر بین «Remark Holding» (هلدینگ حوزه هوش مصنوعی) و یکی از اپراتورهای قطار ایالت فلوریدا در پروژه استفاده از هوش مصنوعی برای جلوگیری از اختلال در شبکه ریلی «Brightline» شاهدی بر تلاش‌های آمریکا در این حوزه است. ایالات متحده در حال حاضر تمرکز خود را بر استقرار هوش مصنوعی در حوزه انرژی گذاشته و این اقدامات پیشرفت‌های بسیاری در زمینه‌های باتری‌سازی و مدیریت شبکه‌های برق رقم زده است.

این تلاش‌ها، موید درک رهبران ایالات متحده، باتوجه‌به افزایش تقاضا در حوزه‌های اینترنت اشیا و خودروهای الکترونیکی و همچنین چالش‌های مربوط به حوزه انرژی‌های تجدیدپذیر، از نقش هوش مصنوعی در امنیت شبکه است. استفاده از هوش مصنوعی برای مدیریت توزیع و پایداری جریان برق یکی دیگر از اولویت‌های آمریکاست. این روش، آزمایشش را سابقاً در چین پس داده و قادر است تنها در سه ثانیه مشکل قطعی برق را حل کند. علاوه بر این دولت بایدن سال گذشته بودجه پنج‌ساله ۸۱ میلیارددلاری را برای اجرای «قانون تراشه و علم» باهدف بازگرداندن تولید این محصول استراتژیک به آمریکا که کاربرد بسیاری در توسعه هوش مصنوعی دارد، در نظر گرفته است. افزایش بودجه یاد شده جهت حفظ برتری فناورانه آمریکا در مقابله با رقبای این کشور که در رأس آن‌ها کشور چین قرار دارد، صورت‌گرفته است. مسئله هوش مصنوعی برای آمریکا صرفاً فناوری و تجاری نیست.

به‌عبارت‌دیگر واشنگتن توسعه فناوری هوش مصنوعی و پیشی‌گرفتن از کشور چین در این حوزه را مسئله‌ای امنیتی دانسته و با تمرکز و حساسیت در این حوزه مدعی است که در پی حفظ امنیت ملی خود است.

پکن با اولویت‌دادن به هوش مصنوعی و سایر نوآوری‌های آینده‌نگر در برنامه‌های سرمایه‌گذاری خود، قصد دارد پایه‌های محکمی برای موفقیت خود در آینده که با منافع جهانی ایالات متحده در تضاد خواهد بود، ایجاد کند.

 

پایین کشیدن رقیب بجای بالارفتن...

دولت بایدن اخیراً اعلام کرده که در حال تدوین یک دستور اجرایی به‌منظور دورنگه داشتن سرمایه‌گذاری‌های بخش‌های مختلف فناوری مانند (نیمه‌هادی‌ها و محاسبات کوانتومی) و هوش مصنوعی از کشور چین است. در پی این اقدام چین آمریکا را به دنبال کردن «منافع خودخواهانه» به‌وسیله «اجبار اقتصادی» متهم کرد و هشدار داد که در مقابل این‌گونه اقدامات و «قلدری‌ها» که در تضاد با اصول اقتصاد بازار و رقابت منصفانه است، تماماً می‌ایستد.

سخنگوی وزارت امور خارجه چین در نشستی اخیراً ایالات متحده را به استفاده از تجارت به‌عنوان «ابزار و سلاحی به نام امنیت ملی» متهم کرد. واضح است که هر تلاشی از سوی کشورهای «G۷» برای ممانعت از سرمایه‌گذاری در فناوری‌های پیشرفته در چین باعث افزایش تنش‌های میان شی‌جی‌پینگ و جو بایدن می‌شود و ممکن است روابط همه‌جانبه دو کشور را دستخوش تقابل‌های مخاطره‌آمیز کند. این اقدام دولت بایدن، بخشی از تلاش‌های گسترده‌تری برای حفظ برتری تکنولوژیک آمریکا و حفاظت از منافع امنیت ملی است. بااین‌حال کارشناسان هشدار می‌دهند: «این اقدامات می‌تواند نتیجه عکس داده و باعث واگذاری قدرت به چین شده و یا به توسعه «دموکراتیک» هوش مصنوعی آسیب برساند. بهتر است ایالات متحده انرژی خود را صرف پیشرفت خود در حوزه هوش مصنوعی کرده تا اینکه از رشد رقیب جلوگیری کند.»

 

به‌کارگرفتن نیروهای ملی برای پیروزی در رقابت فناورانه

چین با وجود راهبرد واشنگتن مبنی بر مهار و کنترل فناوری چینی همه تلاش خود را در جهت مقابله و شکست آمریکا در حوزه فناوری به کار بسته است. به عقیده کارشناسان چین باتکیه بر تمامی منابع دولتی و بخش خصوصی و صرف مبالغ هنگفت برای تحقیق و توسعه، در حال مقابله با تشدید تحریم‌های ایالات متحده در حوزه‌های فناوری و محدودیت‌گذاری‌های سرمایه‌گذاری است و کلید موفقیت در این رقابت را خودکفایی در حوزه فناوری می‌داند. برای مثال دولت چین در سال ۲۰۲۲ چیزی حدود ۱۲ میلیارد یوان معادل ۱.۷۵ میلیارد دلار بودجه به صنعت نیمه‌هادی که یکی از صنایع پیش‌نیاز توسعه هوش مصنوعی محسوب می‌شود، اختصاص داده است.

بر اساس گمانه‌زنی‌ها این اقدام در جهت مقابله با تحریم‌های روزافزون ایالات متحده در صنعت تراشه است. کشور چین علاوه بر کمک به شرکت‌های بزرگ با درنظرگرفتن وام و تسهیلات برای شرکت‌های کوچک غیر بورسی تمام تلاش خود را در این رقابت به کار گرفته است.

پکن در پی تحریم‌های واشنگتن و جلوگیری از ورود تراشه‌های جدید به چین، این کشور را به سمت مطالعات بر روی توسعه هوش مصنوعی به‌وسیله تراشه‌های قدیمی سوق داده است. یکی دیگر از اقدامات چین در راستای خودکفایی در صنعت تراشه که پایه توسعه هوش مصنوعی و بسیاری از فناوری‌های جدید دیگر است، اختصاص بودجه به استان‌های مختلف با عنوان صندوق نیمه‌هادی است. فاز اول فعالیت این صندوق از زمان تأسیس در سال ۲۰۲۱ به ۳۱ میلیارد یوان رسیده و تاکنون در توسعه ۱۰۲ شرکت، سرمایه‌گذاری کرده تا به تسریع روند رشد فناوری در کشور یاد شده کمک کند.

حقیقت این است که رقابت چین و آمریکا به طور مداوم در حال گسترش به حوزه‌های گوناگون است. نبرد تجاری ترامپ با دولت چین و تعرفه‌گذاری دولت آمریکا بر محصولات تجاری این کشور، در طول زمان اندک اندک به حوزه حکمرانی پلتفرمی و محدودیت تیک‌تاک کشیده شد و سپس به حوزه فناوری تولید تراشه و هوش مصنوعی تسری یافت.

هوش مصنوعی در مقطع فعلی به حدی با معادلات بین‌الملل در آمیخته است که حتی سیاست‌مدارانی چون هنری کیسینجر، وزیر امور خارجه سابق ۹۹ ساله ایالات‌متحده آمریکا را نیز به اظهار نظر در مورد این فناوری واداشته است. وی سال گذشته طی سخنرانی در جریان یک اجلاس، از دولت‌های چین و آمریکا خواست تا مذاکره درباره اعمال برخی محدودیت‌های در این زمینه را آغاز کنند، زیرا بدون وجود برخی موانع و محدودیت‌ها، این روند به یک مسابقه دیوانه‌وار فناورانه برای تحقق یک فاجعه ختم می‌شود!

حقیقت این است که هنوز هیچ سقف و محدودیتی برای توان بالقوه هوش مصنوعی مشخص نشده است. در این میان، دیگر کشورهای جهان نیز با ارزیابی تهدیدات توسعه این فناوری از سوی دو قدرت بزرگ جهانی، تمرکز خود را بر توسعه هوش مصنوعی معطوف کرده‌اند. به عنوان مثال، ولادیمیر پوتین، رئیس جمهور روسیه، طی یک سخنرانی در سال ۲۰۱۷، در جمع دانشجویان گفت: «کسی که در این زمینه رهبر شود، حاکم جهان خواهد بود.»

علت ممنوعیت ChatGPT برای کارمندان اپل

يكشنبه, ۳۱ ارديبهشت ۱۴۰۲، ۰۴:۱۲ ب.ظ | ۰ نظر

اپل برای جلوگیری از نشت داده های محرمانه اش استفاده از چت جی پی تی توسط کارمندانش را محدود کرد.

به گزارش خبرگزاری مهر به نقل از انگجت، اپل به محافظه کاری درباره پروژه هایش و همچنین انتظار رازداری از کارمندانش مشهور است.

اکنون طبق گزارشی از نشریه وال استریت ژورنال شرکت فناوری مذکور نگران است با استفاده کارمندان از چت جی پی تی، داده های مالکیتی آن فاش شود. برای جلوگیری از این روند اپل به طور خاص استفاده از چت جی پی تی و دیگر ابزارهای هوش مصنوعی مانند Copilot (متعلق به شرکت گیت هاب که می تواند به طور خودکار رمز را تکمیل کند) را محدود کرده است.

از سوی دیگر گزارشها حاکی از آن است که اپل مشغول توسعه مدل های زبانی بزرگ مخصوص خود نیز است.

در اوایل آوریل ۲۰۲۳ میلادی نشریه «اکونومیست کره» در گزارشی نوشت ۳ کارمند یک شرکت تولیدکننده موبایل و دستگاه های الکترونیکی کره ای اطلاعات محرمانه را با چت جی پی تی به اشتراک گذاشته اند. ظاهرا یکی از کارمندان از چت بات خواسته بود مخزن کد منبع را برای وجود اشتباهات جستجو کند و کارمند دیگر خواستار بهبود کدها شده بود. کارمند سوم نیز یک جلسه ضبط شده را در چت بات آپلود کرده و از آن خواسته بود صورت جلسه را بنویسد.

هنوز مشخص نیست اپل چگونه استفاده از ابزارهای هوش مصنوعی مولد را محدود یا به طور کامل ممنوع می کند.

برای یک شرکت مرموز مانند اپل محدودیت استفاده از هوش مصنوعی تعجب برانگیز به نظر نمی رسد. از سوی دیگر اوپن آ آی سری تنظیمات کنترل حریم خصوصی جدیدی در آوریل ارائه کرده که به کاربران امکان می دهد تاریخچه چت خود را کنترل کنند تا محاورات آنها برای آموزش استفاده نشود.

در حال حاضر اطلاعات اندکی درباره پروژه های مدل های زبانی بزرگ وجود دارد.

توافق رهبران G۷ برای حکمرانی هوش مصنوعی

شنبه, ۳۰ ارديبهشت ۱۴۰۲، ۰۴:۵۹ ب.ظ | ۰ نظر

رهبران کشورهای گروه ۷ درباره نیاز به حکمرانی منطبق با ارزش ها در زمینه هوش مصنوعی مولد توافق کردند.
به گزارش خبرگزاری مهر به نقل از بلومبرگ، همچنین آنها بر نگرانی درباره پتانسیل مخرب فناوری های با سرعت در حال گسترش توافق کردند.

رهبران در بیانیه مشترک اجلاس G۷ اعلام کردند دولت ها تصمیم دارند در اقدامی موسوم به «فرایند هیروشیما» مذاکراتی در سطح کابینه درباره این مشکل انجام دهند و نتایج آن را تا پایان سال اعلام کنند.

فومیو کیشیدا، نخست وزیر ژاپن برای تضمین انسان محور و ایمن بودن هوش مصنوعی مولد، خواهان همکاری برای ایجاد یک جریان داده ایمن و برون مرزی و تعهد به کمک مالی به چنین اقدامی شد.

ژاپن به عنوان مدیر در سال جاری خواهان پشتیبانی برای استفاده عمومی و صنعتی هوش مصنوعی و همزمان نظارت بر ریسک های آن شد. نخست وزیر این کشور گفت: بسیار مهم است که با پتانسیل ها و ریسک ها به درستی برخورد کنیم.

هر چند کشورهای عضو این اجلاس درباره شیوه قانونمندسازی هوش مصنوعی با یکدیگر متفاوت عمل می کنند اما رهبران آن درباره ایجاد یک انجمن به نام « فرایند هوش مصنوعی هیروشیما»تا پایان سال توافق کردند تا درباره موضوعات هوش مصنوعی مانند حقوق کپی رایت و اخبار جعلی بحث کنند.

پس از آنکه چت جی پی تی شرکت «اوپن آ آی» رقابتی را میان شرکت ها ایجاد کرد تا فناوری را سریع تر توسعه دهند، درخواست هایی برای وضع مقرراتی که منعکس کننده نظرات رهبران صنعتی و دولت های سراسر جهان باشد، مطرح شد.

دولت ها بیم آن دارند که توسعه این فناوری که می تواند متونی مانند نوشته انسان و عکس و ویدئو بسازد، اگر بدون کنترل انجام شود، به گسترش یک ابزار قدرتمند برای تولید اخبار جعلی و اختلال سیاسی منجر می شود. سم آلتمن مدیر ارشد اجرایی اوپن آ آی نیز به همراه مدیر حریم خصوصی شرکت «بیزینس ماشین» از سناتورهای آمریکایی خواستند قوانین هوش مصنوعی بیشتری وضع کنند.

سازمان جهانی بهداشت نیز به طور جداگانه در بیانیه ای اعلام کرد استفاده از استفاده سریع از هوش مصنوعی به خطر خطاهای پزشکی را همراه دارد و احتمالاً اعتماد به این فناوری را از بین می‌برد و پذیرش آن را به تأخیر می‌اندازد.

ریشی سوناک نخست وزیر انگلیس نیز خواهان ایجاد سیاستی برای مدیریت ریسک و مزایای هوش مصنوعی شد و آلتمن و دیگران را به انگلیس دعوت کرد. در این میان اتحادیه اروپا در قانونمندسازی ابزارهای هوش مصنوعی یک گام به جلو برداشته و از شرکت ها خواسته تا تضمین کنند به کاربران اطلاع داده شود چه زمان با هوش مصنوعی ارتباط برقرار کرده اند و از این فناوری برای شناسایی افراد در اماکن عمومی استفاده نشود.

از سوی دیگر دولت ژاپن تمایل به نظارت بر هوش مصنوعی با دستورالعملی آسانگیرانه تر از قوانین اتحادیه اروپا دارد.

ChatGPT جایگزین رادیولوژیست‌ها می‌شود؟

شنبه, ۳۰ ارديبهشت ۱۴۰۲، ۰۳:۵۸ ب.ظ | ۰ نظر

پژوهشگران بیمارستان تورنتو در کانادا با آزمایش بر روی هوش مصنوعی ChatGPT دریافتند این چت بات میتواند به عنوان رادیولوژیست عمل نماید.
به گزارش سایبربان، پژوهشگران ،با آزمایش بر روی مدل هوش مصنوعی چت جی پی تی (ChatGPT)دریافتند که عملکرد آن قابل قبول میباشد اما برخی از اظهارات بدست آمده، غیرمنطقی و نادرست بنظر می‌رسد و هنوز آماده جایگزینی با رادیولوژیست‌ها نیست.
این چت‌بات در یک آزمون ۱۵۰ سوالی که توسط گروه‌های رادیولوژی در کانادا و ایالات متحده طراحی شده بود، ۸۱ درصد امتیاز کسب نمود که بسیار بالاتر از حداقل درصد قبولی(۷۰ درصد) بود.
با افزایش استفاده از چت جی پی تی (ChatGPT )در بخش‌های مختلف، پژوهشگران دانشگاه پزشکی تصویربرداری تورنتو نیز به این فکر افتادند که زمان آن رسیده است که توانایی‌های این چت‌بات را در رادیولوژی نیز آزمایش کنند.
پژوهشگران یک آزمون ۱۵۰ سوالی برای  چت جی پی تی (ChatGPT ) طراحی کردند، دقیقاً مانند آنچه که گروه‌های رادیولوژی در کانادا و ایالات متحده برای دانشجویان این رشته انجام می‌دهند. از آنجایی که این ربات هوش مصنوعی نمی‌تواند تصاویر را به عنوان ورودی پردازش کند، پژوهشگران فقط متن در سوالات قرار دادند که شامل سوالات پایه و مفهومی و سوالات تخصصی بود.
راجش بایانا، رادیولوژیست و سرپرست فناوری در بیمارستان تورنتو گفت: در ابتدا از پاسخ‌های دقیق و مطمئن چت جی پی تی (ChatGPT ) به برخی سؤالات چالش‌ برانگیز در مورد رادیولوژی حیرت زده شدیم، اما سپس به همان اندازه از اظهارات غیرمنطقی و نادرست آن به برخی دیگر از سوالات متعجب شدیم.

هوش مصنوعی این پتانسیل را دارد که به رادیولوژیست ها در کارشان کمک کند، اما بعید است که در آینده نزدیک جایگزین آنها شود. الگوریتم‌های هوش مصنوعی را می‌توان برای تجزیه و تحلیل تصاویر پزشکی و شناسایی ناهنجاری‌ها آموزش داد، که بتواند به رادیولوژیست‌ها در شناسایی سریع‌تر و دقیق‌تر مشکلات کمک کند. با این حال، تفسیر تصاویر پزشکی و انتخاب گزینه های درمانی مناسب نیاز به دانش و تخصص پزشکی بالایی دارد که به بهترین وجه توسط رادیولوژیست انسانی ارائه میشود.

توجه به این نکته مهم است که هوش مصنوعی باید به عنوان ابزاری برای تقویت کار رادیولوژیست ها به جای جایگزینی آنها استفاده شود. هوش مصنوعی می تواند به رادیولوژیست ها کمک کند تا در کار خود کارآمدتر و دقیق تر باشند، اما نمی تواند جایگزین قضاوت پزشکی و مهارت های تصمیم گیری یک رادیولوژیست آموزش دیده شود.

خالق ChatGPT در سنای آمریکا: مقررات وضع کنید

چهارشنبه, ۲۷ ارديبهشت ۱۴۰۲، ۰۲:۰۵ ب.ظ | ۰ نظر

«سم آلتمن» مدیر شرکت «اوپن ای‌آی» (Open AI) روز سه‌شنبه با حضور در یک کمیته فرعی قضایی در مجلس سنای آمریکا به منظور بررسی مخاطرات فناوری‌ نوین هوش مصنوعی، از قانونگذاران این کشور خواست که فناوری هوش مصنوعی را با مقررات خاصی نظام‌مند کنند.

به گزارش گروه علم و آموزش ایرنا ، آلتمن در آغاز سخنان خود گفت: ما بر این گمان هستیم که مداخلات قانونگذارانه و تنظیم‌کننده دولت‌ها برای کاهش خطرات مدل‌هایی که روز به روز قدرتمندتر می‌شوند حیاتی خواهد بود.

حضور آلتمن در سنای آمریکا در حالی است که ابزار «بات گفت‌وگوی» شرکت او موسوم به «چت‌جی‌پی‌تی» (ChatGPT) سر و صدای زیادی به پا کرده و موجب تشدید رقابت‌های حوزه فناوری در زمینه هوش مصنوعی شده است؛ برخی از قانونگذاران آمریکایی و مقامات کشورهای مختلف در خصوص خطرات ناشی از این فناوری ابراز نگرانی کرده‌اند.

بررسی مخاطرات هوش مصنوعی در جلسه سنای آمریکا با مدیر «اوپن ای‌آی»

«چت جی‌پی‌تی» و سایر برنامه‌های مشابه می‌توانند پاسخ‌های بسیار شبیه پاسخ‌های انسانی به پرسش‌های مختلف ارائه کنند که البته هنوز ممکن است تا حد زیادی نادرست باشند. آلتمن 38 ساله به نوعی به سخنگوی این صنعت نوظهور تبدیل شده است. او ابایی از پرداختن به مسائل اخلاقی مرتبط با هوش مصنوعی نداشته و خواستار قانونگذاری بیشتر در این زمینه شده است.

وی از سویی گفت که اهمیت این فناوری جدید می‌تواند به بزرگی و اهمیت ظهور «صنعت چاپ» بوده و نویدبخش آغاز عصر تولیدات جدید باشد، اما از سوی دیگر بر وجود خطرات بالقوه مرتبط با آن اذعان کرد.

آلتمن تاکید کرد: من واقعا بر این باور هستم که اعمال قواعد و مقرراتی در این زمینه کار عاقلانه‌ای است. مردم باید بدانند کجا با هوش مصنوعی سر و کار دارند و آیا محتوایی که در دسترس آنها قرار دارد، ممکن است با هوش مصنوعی تهیه شده باشد یا خیر.

در حالی که در چند ماه گذشته چندین مدل هوش مصنوعی وارد بازار شده‌اند، آلتمن خاطرنشان کرد که یک سازمان جدید باید برای ارائه پروانه کار شرکت‌های هوش مصنوعی تشکیل شود.

وی خاطرنشان کرد که چنین سازمانی باید مسئول تضمین تبعیت شرکت‌ها از معیارهای اخلاقی و پرداختن به نگرانی‌های مربوط به «صحت مطالب» مرتبط با فناوری هوش مصنوعی باشد.

 

صدای جعلی یک سناتور ، نمودی از خطرات هوش مصنوعی

سناتور «ریچارد بلومنتال» جلسه استماع روز سه‌شنبه را با پخش صدای ضبط شده جعلی از خودش آغاز کرد و با این کار ریسک‌ها و خطرات بالقوه ناشی از این فناوری را مورد تاکید قرار داد.

این صدای ضبط شده با استفاده از سخنرانی‌های واقعی بلومنتال در صحن سنا و یک متن نوشته شده توسط «چت جی‌پی‌تی» تهیه شده و استدلال می‌کرد که نمی‌توان اجازه داد که هوش مصنوعی بدون حساب و کتاب و مقررات خاص توسعه پیدا کند.

بررسی مخاطرات هوش مصنوعی در جلسه سنای آمریکا با مدیر «اوپن ای‌آی»

سناتور بلومنتال توضیح داد که هرچند «چت جی‌پی‌تی» بازتابی از دیدگاه‌های واقعی او تهیه کرده است، اما به همین سادگی می‌توان محتوای جعلی با مطالبی مغایر با دیدگاه‌های او در مورد مسائلی مانند اوکراین و روسیه تهیه کرد.

این درحالی است که در ماه های اخیر شمار فزاینده‌ای از شرکت‌ها ابزارهای جدید هوش مصنوعی را به خدمت گرفته‌اند که این تحول ظرفیت بالقوه ایجاد تغییراتی در زندگی روزمره انسانها را دارد. این ابزارها در عین حال با انتقادهایی از سوی افراد مشهوری در حوزه فناوری در ارتباط با توان بالقوه آن برای مختل کردن میلیون‌ها شغل، اشاعه اطلاعات نادرست و ترویج تعصبات و سوگیری‌ها رو به رو شده‌اند.

آلتمن آشکارا اذعان کرد که ظهور و گسترش هوش مصنوعی می‌تواند تاثیری منفی بر بازار کار داشته باشد و بطور بالقوه منجر به بیکاری گسترده در بخش‌های مختلف شود.

وی در عین حال گفت: هوش مصنوعی می‌تواند مشاغل جدیدی ایجاد کند و این مستلزم همکاری و مشارکت بین صنایع و دولت است، اما درباره اهمیت و جالب بودن شغل‌های آینده خوشبین هستم.

 

هشدار درباره وارد کردن آسیب‌های بزرگ به جهان

مدیر عامل شرکت «اوپن ای‌آی» در این جلسه همچنین نگرانی عمیق خود را درباره تهدیدات بالقوه ناشی از هوش مصنوعی علیه دموکراسی در جهان بخصوص به شکل کارزارهای هدفمند اطلاعات نادرست در جریان انتخابات ابراز داشت.

وی تصریح کرد: بزرگترین هراس من این است که ما – این حوزه، این فناوری و این صنعت – موجب وارد شدن صدمات جدی به جهان شویم. به گمان چنین آسیب‌هایی ممکن است به اشکال بسیار مختلفی وارد شود. آلتمن به منظور پرداختن به چنین نگرانی‌هایی پیشنهاد کرد که حسابرسی‌های مستقلی از شرکت‌هایی مانند شرکت «اوپن ای.‌ای» انجام شود.

بررسی مخاطرات هوش مصنوعی در جلسه سنای آمریکا با مدیر «اوپن ای‌آی»

آلتمن شب پیش از حضور در سنای آمریکا در ضیافت شام کاری با 60 تن از اعضای مجلس نمایندگان آمریکا شرکت کرد و با ارائه کاربردهای مختلفی از «چت جی‌پی‌تی» موجب سرگرمی نمایندگان مجلس آمریکا شد که به گفته یکی از حاضران در جلسه، قانونگذاران در این رویداد «بر جای خود میخکوب شده بودند و بسیاری از حاضران در جلسه اذعان داشتند که تنظیم مقررات مربوط به هوش مصنوعی ضروری خواهد بود.

 

مشابهت‌سازی از هوش مصنوعی با بمب اتمی

در بخشی از جلسه سنای آمریکا با مدیر عامل شرکت «اوپن ای آی»، سناتور حزب «جمهوریخواه» «جاش هاولی» ضمن اذعان به پتانسیل‌ها یا ظرفیت‌های بالقوه شگرف و متحول‌ساز هوش مصنوعی، مشابهت‌سازی هشداردهنده‌ای را با اختراع بمب اتمی مطرح کرد.

بررسی مخاطرات هوش مصنوعی در جلسه سنای آمریکا با مدیر «اوپن ای‌آی»

بلومنتال سناتور از حزب «دموکرات» نیز با تاکید براینکه آینده تحت استیلای هوش مصنوعی باید مطابق با ارزش‌های اجتماعی باشد، گفت: آینده تحت سلطه هوش مصنوعی الزاما آینده‌ای نیست که خواهان آن هستیم.

وی از کنگره آمریکا خواست که از نقایص و کاستی‌های گذشته از جمله ناکامی در تنظیم مقررات کافی در حوزه رسانه‌های اجتماعی درس بگیرد.

وی تاکید کرد: کنگره نتواست در خصوص رسانه‌های اجتماعی به موقع عمل کند و اکنون وظیفه داریم در زمینه هوش مصنوعی به موقع عمل کنیم؛ پیش از آنکه تهدیدات و خطرات واقعی شوند.

 

هشدار معاون «آی بی ام» درباره دوره جدید «بدو و بشکن» هوش مصنوعی

بررسی مخاطرات هوش مصنوعی در جلسه سنای آمریکا با مدیر «اوپن ای‌آی»

در جلسه سنای آمریکا همچنین «کریستینا مونتگومری» معاون شرکت «آی بی ام» نسبت به شروع دوره جدیدی از «بدو و بشکن» شعار قدیمی غول‌های «سیلیکون ولی» مانند شرکت «فیسبوک» هشدار داد.

وی تاکید کرد: دوران هوش مصنوعی نمی‌تواند دوره دیگری از «بدو و بشکن» باشد.

مونتگومری در عین حال گفت: از سوی دیگر نباید ترمز نوآوری‌ها را بکشیم.

هشدار سازمان بهداشت جهانی درباره چت ربات‌ها

سه شنبه, ۲۶ ارديبهشت ۱۴۰۲، ۰۶:۳۸ ب.ظ | ۰ نظر

سازمان بهداشت جهانی درباره استفاده از چت ربات‌های ایجاد شده توسط هوش مصنوعی هشدار داد و خواستار هوش مصنوعی ایمن و اخلاقی برای سلامتی شد.
به گزارش ایرنا سازمان بهداشت جهانی خواستار احتیاط در استفاده از ابزارهای مدل زبان بزرگ (LLM) تولید شده توسط هوش مصنوعی (AI) برای محافظت و ارتقای رفاه انسان، ایمنی و استقلال انسان و حفظ سلامت عمومی است.

ابزارهای مدل زبان بزرگ‌ها شامل برخی از پلتفرم‌های به سرعت در حال گسترش مانند ChatGPT، Bard، Bert و بسیاری دیگر هستند که درک، پردازش و تولید ارتباطات انسانی را تقلید می‌کنند. انتشار عمومی و استفاده آزمایشی رو به رشد آن‌ها برای مقاصد مرتبط با سلامت، هیجان قابل توجهی را در مورد پتانسیل حمایت از نیازهای بهداشتی مردم ایجاد می‌کند.

ضروری است که هنگام استفاده از ابزارهای مدل زبان بزرگ که به نام چت ربات‌های هوش مصنوعی شناخته می‌شوند، برای بهبود دسترسی به اطلاعات بهداشتی، به عنوان یک ابزار پشتیبانی تصمیم، یا حتی برای افزایش ظرفیت تشخیصی در محیط‌های کم منابع برای محافظت از سلامت مردم و کاهش نابرابری، خطرات به دقت بررسی شوند.

در حالی که سازمان بهداشت جهانی مشتاق استفاده مناسب از فناوری‌ها، از جمله چت با هوش مصنوعی، برای حمایت از متخصصان مراقبت‌های بهداشتی، بیماران، محققان و دانشمندان است، این نگرانی وجود دارد که احتیاط‌هایی که معمولاً برای هر فناوری جدید اعمال می‌شود، به طور مداوم در مورد ابزارهای مدل زبان بزرگ اعمال نمی‌شود. این شامل گسترش ارزش‌های کلیدی شفافیت، اخلاق مداری، مشارکت عمومی، نظارت متخصصان و ارزیابی دقیق است.

پذیرش سریع سیستم‌های آزمایش‌نشده می‌تواند منجر به اشتباهات کارکنان مراقبت‌های بهداشتی، آسیب رساندن به بیماران، کاهش اعتماد به هوش مصنوعی و در نتیجه تضعیف (یا تأخیر) مزایای بالقوه بلندمدت و استفاده از چنین فناوری‌هایی در سراسر جهان شود.

نگرانی‌هایی که مستلزم نظارت دقیق مورد نیاز برای استفاده از فناوری‌ها به روش‌های ایمن، مؤثر و اخلاقی هستند عبارتند از:

داده‌های مورد استفاده برای آموزش هوش مصنوعی ممکن است مغرضانه باشد و اطلاعات گمراه‌کننده یا نادرستی ایجاد کند که می‌تواند خطراتی برای سلامتی، برابری و فراگیر بودن ایجاد کند.

ابزارهای مدل زبان بزرگ‌ها پاسخ‌هایی را تولید می‌کنند که می‌توانند برای کاربر نهایی معتبر و قابل قبول به نظر برسند. با این حال، این پاسخ‌ها ممکن است کاملاً نادرست باشند یا حاوی خطاهای جدی باشند، به ویژه برای پاسخ‌های مرتبط با سلامت.

ممکن است ابزارهای مدل زبان بزرگ در مورد داده‌هایی که قبلاً برای چنین استفاده‌هایی رضایت ارائه نشده است آموزش ببینند و ممکن است از داده‌های حساس (از جمله داده‌های سلامت) که کاربر برای ایجاد پاسخ در اختیار یک برنامه کاربردی قرار می‌دهد، محافظت نکنند.

از چت بات ها می‌توان برای تولید و انتشار اطلاعات نادرست بسیار قانع کننده در قالب محتوای متنی، صوتی یا ویدئویی استفاده نادرست کرد که تشخیص آن برای عموم از محتوای سلامت قابل اعتماد دشوار است.

در حالی که بهداشت جهانی متعهد به استفاده از فناوری‌های جدید، از جمله هوش مصنوعی و سلامت دیجیتال برای بهبود سلامت انسان است، سازمان بهداشت جهانی توصیه می‌کند که سیاست‌گذاران از ایمنی و محافظت از بیمار اطمینان حاصل کنند، در حالی که شرکت‌های فناوری برای تجاری‌سازی ابزارهای مدل زبان بزرگ (چت بات های هوش مصنوعی) تلاش می‌کنند.

سازمان بهداشت جهانی پیشنهاد می‌کند که به این نگرانی‌ها رسیدگی شود، و شواهد واضحی از منافع قبل از استفاده گسترده از آنها در مراقبت‌های بهداشتی و پزشکی معمول، چه توسط افراد، چه ارائه‌دهندگان مراقبت‌ها یا مدیران سیستم سلامت و سیاست‌گذاران، اندازه‌گیری شود.

سازمان بهداشت جهانی بر اهمیت به کارگیری اصول اخلاقی و حکمرانی مناسب، همان‌طور که در راهنمای سازمان بهداشت جهانی، در مورد اخلاق و حکمرانی هوش مصنوعی برای سلامت، در هنگام طراحی، توسعه و استقرار هوش مصنوعی برای سلامت برشمرده شده است، تاکید می‌کند.

شش اصل اصلی شناسایی شده توسط سازمان بهداشت جهانی عبارتند از: (۱) حفاظت از خودمختاری. (۲) ارتقا رفاه انسان، ایمنی انسان، و منافع عمومی. (۳) شفافیت، توضیح پذیری و قابل فهم بودن را تضمین کند. (۴) مسئولیت پذیری و مسئولیت شناسی را تقویت کند. (۵) از فراگیری و برابری آن اطمینان حاصل شود. (۶) هوش مصنوعی پاسخگو و پایدار را ارتقا دهید.

روش شناسایی تصاویر ساختگی با هوش مصنوعی

سه شنبه, ۲۶ ارديبهشت ۱۴۰۲، ۰۳:۵۹ ب.ظ | ۰ نظر

گوگل به منظور کاهش انتشار اطلاعات نادرست، به ویژه اکنون که ابزارهای هوش مصنوعی ساخت تصاویر جعلی واقعی‌نما را راحت کرده اند، دو ابزار جدید به جستجوی تصویر خود اضافه می‌کند.
به گزارش ایسنا، نخستین ویژگی جدیدی که از سوی گوگل عرضه می‌شود، "درباره این تصویر" (About this image) نام دارد  که توضیح بیشتری مانند زمانی که یک تصویر یا تصاویر مشابه برای اولین بار توسط گوگل ایندکس شده اند، نخستین جایی که برای اولین بار در اینترنت ظاهر شدند و جای دیگری که به صورت آنلاین نمایش داده شدند را اضافه می‌کند. هدف از عرضه این ویژگی، این است که به کاربران کمک شود منبع اصلی تصویر را مشخص کنند و با هرگونه شواهد رد کردنی که ممکن است توسط سازمان‌های خبری ارائه شده باشد، تصویر را مورد بررسی قرار دهند.

گوگل هر تصویر تولید شده توسط هوش مصنوعی را که توسط ابزارهایش ایجاد شده است، علامت‌گذاری می‌کند و با پلتفرم‌ها و سرویس‌های دیگر همکاری خواهد کرد تا مطمئن شود که همان نشانه‌گذاری را به فایل‌هایی که منتشر می‌کنند، اضافه می‌کنند. میدجورنی و شاتراستاک، از جمله ناشرانی هستند که با گوگل همراهی می‌کنند و هدف این است که اطمینان حاصل شود همه محتوای هوش مصنوعی که در نتایج جستجو ظاهر می‌شوند، نشانه گذاری شده اند.

منشأ تصاویر آنلاین، مسئله‌ای است که در دوران هوش مصنوعی، اهمیت رو به رشدی پیدا کرده است و چندین استارتاپ مشغول تولید ابزارهای تایید و احراز هویت هستند. به عنوان مثال، شرکت تروپیک (Truepic Inc) که تحت حمایت مایکروسافت قرار دارد، سیستم‌هایی را عرضه می‌کند که تضمین می‌کنند تصویر از زمان ثبت تا انتشار، دستکاری نشده است.

بر اساس گزارش بلومبرگ، ویژگی‌های جدید گوگل که به تدریج در سال میلادی جاری عرضه می‌شوند، از فناوری نسبتا پایین‌تری برخوردار هستند، اما ممکن است با پشتیبانی کافی صنعت، اثرگذاری مثبت بیشتری داشته باشند.