ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

  عبارت مورد جستجو
تحلیل وضعیت فناوری اطلاعات در ایران

۴۱۴ مطلب با کلمه‌ی کلیدی «هوش مصنوعی» ثبت شده است

تحلیل


رئیس سازمان ملل متحد از ایجاد نهاد بین المللی دیده بان هوش مصنوعی مانند آژانس هسته ای حمایت میکند.
به گزارش سایبربان،دبیرکل سازمان ملل از پیشنهاد برخی مدیران هوش مصنوعی برای ایجاد یک نهاد ناظر بین المللی هوش مصنوعی مانند آژانس بین المللی انرژی اتمی حمایت کرد.

فناوری هوش مصنوعی مولد از شش ماه پیش که چت جی پی تی (ChatGPT) راه اندازی شد، مردم را شیفته خود کرده و به سریع ترین اپلیکیشن محبوب حال حاضر تبدیل شده است. هوش مصنوعی همچنین به کانون نگرانی در مورد توانایی خود در ایجاد تصاویر جعلی و دیگر اطلاعات نادرست تبدیل شده است.

هشدار محققان در مورد هوش مصنوعی به شدت رو به افزایش است. از اینرو گوترش به خبرنگاران گفت: ما باید این هشدارها را جدی بگیریم.

آنتونیو گوترش اعلام کرده است که قصد دارد کار خود را تا پایان سال در یک نهاد مشورتی هوش مصنوعی سطح بالا آغاز کند تا به طور منظم عملکرد هوش مصنوعی را بررسی کند و توصیه هایی را در مورد چگونگی هماهنگی هوش مصنوعی با حقوق بشر و حاکمیت قانونی ارائه دهد.

او در ادامه افزود: من از این ایده که ما میتوانیم یک آژانس هوش مصنوعی مانند آژانس بین المللی انرژی اتمی داشته باشیم، استقبال میکنم.

گوترش گفت که چنین ایده ای میتواند بسیار جالب باشد اما اشاره کرد که تنها کشورهای عضو میتوانند آن را ایجاد کنند، نه دبیرخانه سازمان ملل متحد.

هشدار رئیس جمهور آلمان درباره هوش مصنوعی

دوشنبه, ۲۲ خرداد ۱۴۰۲، ۰۳:۳۹ ب.ظ | ۰ نظر

رئیس جمهور فدرال آلمان در نشستی درباره خطرات توسعه هوش مصنوعی هشدار داده و نظارت موثرتر بر این فناوری را لازم دانست.
به گزارش تسنیم به نقل از "ان تی وی" آلمان، "فرانک والتر اشتاین مایر"، رئیس جمهور فدرال آلمان، نسبت به خطرات احتمالی ناشی از توسعه مداوم هوش مصنوعی هشدار داد. اشتاین مایر در نشستی با محوریت این موضوع گفت: هوش مصنوعی یک فناوری مخرب است که زندگی همه ما را تغییر خواهد داد. رئیس جمهور فدرال آلمان هشدار داد که این فناوری همچنین می تواند به صورت دستکاری و بدخواهانه استفاده شود. او به عنوان نمونه به تصویر انفجار ادعایی در وزارت دفاع ایالات متحده اشاره کرد که هزاران بار در اینترنت به عنوان اخبار جدی به اشتراک گذاشته شده بود.

وی افزود: خبر جعلی افشا شد، اما قیمت‌های بازار سهام قبلاً در بازارهای مالی سقوط کرده بود. شفاف سازی همیشه آنقدر سریع و واضح نیست و شفاف سازی همیشه به همه کسانی که پیام را دیده اند نمی رسد.

"اشتاین مایر" گفت، گسترش ترس با چنین عکس‌هایی که به‌طور مصنوعی تولید می‌شوند، متاسفانه خیلی خوب عمل می‌کند و تقلبی‌ها بهتر و بهتر می‌شوند. وی افزود: وقتی جعلی در دنیا منتشر شد، اصلاح آن دشوار است. یک نوع آموزش عمومی دیجیتال ضروری است.همه ما باید یاد بگیریم که به جای تکیه بر معقول بودن یک ماشین، پاسخ های هوش مصنوعی را بررسی کنیم.

اشتاین مایر تاکید کرد که یک چارچوب اخلاقی و قانونی با استانداردهای موثر و نهادهای نظارتی نیز باید ایجاد شود. به گفته وی برای کشف تحولات نامطلوب، روزنامه نگاری قوی و مستقل نیز ضروری است.

مقامات آلمانی مرتبا درباره خطرات توسعه هوش مصنوعی هشدار می دهند.

"ساسکیا اسکن"، رهبر حزب سوسیال دموکرت آلمان هم اخیرا از ایجاد یک مرجع نظارتی برای استفاده از هوش مصنوعی (KI) در آلمان حمایت کرد. این مقام آلمانی در گفتگویی با خبرگزاری آلمان گفت: از آنجایی که مدیریت داده ها نقش مهمی در نظارت دارد، افسر حفاظت از داده ها و آزادی اطلاعات می تواند انتخاب خوبی باشد. وی تاکید کرد: در هر صورت، ما به مرجعی نیاز داریم که ارزیابی کند آیا استفاده از هوش مصنوعی از قانون پیروی می کند یا خیر.

اسکن در بخش دیگری از سخنانش تاکید کرد که هوش مصنوعی پتانسیل بالایی دارد، به عنوان مثال برای آموزش عادلانه تر، مراقبت های پزشکی بهتر و مدیریت کارآمدتر. اما مطمئناً خطراتی نیز مانند همه فناوری ها وجود دارد. خوب است که آلمان و اروپا نه تنها از نظر فناوری در خط مقدم باشند، بلکه در مورد نحوه تنظیم استفاده از هوش مصنوعی نیز پیشرو باشند.

وزاری کار و کشور آلمان هم اخیرا نسبت به تبعیض و کنترل غیرقانونی کارمندان توسط هوش مصنوعی در شرکت‌ها هشدار دادند.

بر اساس تصمیمات اتخاذ شده در آینده قوانین بسیار سخت گیرانه‌تری در آلمان برای نظارت، کنترل یا انتخاب کارمندان با استفاده از هوش مصنوعی وجود خواهد داشت. روزنامه "زوددویچه سایتونگ" در گزارشی نوشت، "نانسی فایزر"، وزیر کشور فدرال آلمان و هوبرتوس هیل، وزیر کار فدرال هر دو می‌خواهند در یک قانون جدید حفاظت از داده‌های کارکنان از نظارت کامل بر کارمندان جلوگیری کنند.

به گفته نانسی فایزر، وزیر کشور فدرال آلمان هوش مصنوعی نقش مهمی را ایفا خواهد کرد و این فرصت‌های بسیار زیادی را در بر دارد، اما همچنین این خطر را دارد که فرآیندها دیگر شفاف نباشند، انسان‌ها مورد تبعیض قرار گیرند یا حقوق شخصی از طریق نظارت نادرست نقض شود.

دولت همچنین می‌خواهد استفاده از هوش مصنوعی را در فرآیندهای استخدام در شرکت‌ها محدود کند. بر این اساس برنامه‌های مربوطه باید با استانداردهای علمی مطابقت داشته باشند و فقط می‌توانند ویژگی‌هایی را بررسی کنند که برای یک موقعیت مهم هستند.

وزیر دیجیتال آلمان نیز اخیرا خواستار مقررات سریع اتحادیه اروپا برای کاربردهای هوش مصنوعی شده است. وی در این باره گفت: هوش مصنوعی وارد زندگی روزمره شده است و زندگی ما را به طور اساسی تغییر خواهد داد. اتحادیه اروپا باید به سرعت به این موضوع واکنش نشان دهد. همچنین وزارت کشور فدرال آلمان خواهان یک چارچوب قانونی شفاف در این راستا است.

وزیر دیجیتال آلمان گفت: ما باید اکنون عاقلانه واکنش نشان دهیم و هوش مصنوعی را به طور معقولی تنظیم کنیم، قبل از اینکه برای این کار خیلی دیر شود. این کار نباید دوباره سال‌ها طول بکشد. باید اطمینان حاصل شود که این فناوری جدید تنها در صورتی قابل استفاده است که به ارزش‌های اروپایی مانند دموکراسی، شفافیت و بی طرفی پایبند باشد.

برنامه‌های مبتنی بر هوش مصنوعی مانند ChatGPT با کمک هوش مصنوعی محتوا تولید می‌کنند. کاربران می‌توانند دستورات یا جملاتی را مشخص کنند که سیستم‌های مربوطه به‌طور مستقل آن‌ها را با کمک حجم وسیعی از داده‌های اینترنت تکمیل می‌کنند.

نتایج نظر سنجی‌ها هم نشان نشان می‌دهد که اکثر شهروندان آلمانی از قوانین سختگیرانه‌تر برای توسعه هوش مصنوعی حمایت می‌کنند.

انگلیس میزبان نخستین اجلاس جهانی هوش مصنوعی

دوشنبه, ۲۲ خرداد ۱۴۰۲، ۰۳:۱۳ ب.ظ | ۰ نظر

انگلیس نخستین میزبان اجلاس جهانی هوش مصنوعی در پاییز 2023 خواهد بود.
به گزارش سایبربان، نخست وزیر انگلیس اعلام کرد در حالیکه جهان با چالش ها و فرصت های ناشی از پیشرفت سریع هوش مصنوعی دست و پنجه نرم میکند، بریتانیا میزبان اولین اجلاس بزرگ جهانی درباره ایمنی هوش مصنوعی خواهد بود.

هوش مصنوعی به بهبود زندگی ما کمک میکند و توسعه هوش مصنوعی به سرعت انجام میشود و این سرعت نیازمند نظارت میباشد. به همین دلیل است که انگلیس اولین اجلاس بزرگ جهانی درباره ایمنی هوش مصنوعی را برگزار خواهد کرد.

هفته های گذشته ،ده ها کارشناس برجسته در مورد پتانسیل هوش مصنوعی برای به خطر انداختن نسل بشریت به روش های مشابه پاندمیک یا سلاح های هسته ای هشدار دادند.

این نشست که پاییز امسال به میزبانی انگلیس برگزار خواهد شد، خطرات هوش مصنوعی از جمله سیستم های مرزی را مورد بررسی قرار خواهد داد و درباره چگونگی کاهش آنها از طریق اقدامات هماهنگ بین المللی بحث خواهد کرد. همچنین بستری را برای کشورها فراهم خواهد کرد تا روی توسعه بیشتر یک رویکرد مشترک برای کاهش این خطرات با یکدیگر همکاری کنند.

در هفته های اخیر نخست وزیر انگلیس این موضوع را با تعدادی از تجار و رهبران جهان در میان گذاشته است. این رهبران شامل همه اعضای جی ۷ می شود که ماه گذشته در اجلاس هیروشیما شرکت کرده بودند.

در ماه ژوئیه نیز وزیر امور خارجه انگلیس،اولین جلسه توجیهی شورای امنیت سازمان ملل درباره فرصت ها و خطرات هوش مصنوعی برای صلح و امنیت بین المللی را برگزار خواهد کرد.

انگلیس موقعیت خوبی برای برگزاری مذاکرات در مورد آینده هوش مصنوعی دارد. زیرا این کشور در زمینه هوش مصنوعی در جایگاه سوم جهان پس از آمریکا و چین قرار دارد.
 بخش هوش مصنوعی انگلیس در حال حاضر ۳.۷ میلیارد پوند به اقتصاد این کشور کمک میکند و ۵۰ هزار نفر را در سراسر کشور مشغول بکار نموده است.انگلیس یکی از اولین کشورهایی است که طرحی برای توسعه ایمن و مسئولانه هوش مصنوعی ارائه کرد که با سرعت پیشرفت این فناوری سازگار خواهد بود.

نخست وزیر انگلیس طی مصاحبه ای گفت:هوش مصنوعی پتانسیل فوق العاده ای برای تغییر بهتر زندگی ما دارد. اما باید مطمئن شویم که به گونه ای توسعه یافته و مورد استفاده قرار میگیرد که ایمن و بی خطر باشد.هیچ کشوری به تنهایی نمیتواند این کار را انجام دهد. این یک تلاش جهانی خواهد بود.

هوش مصنوعی جدید گوگل رونمایی شد

يكشنبه, ۲۱ خرداد ۱۴۰۲، ۰۵:۱۰ ب.ظ | ۰ نظر

هوش مصنوعی گوگل با نام «آلفادو» برای بهبود مرتب کردن یک مجموعه و اطلاعات استفاده می‌شود.
به گزارش تسنیم، بخش هوش مصنوعی گوگل (Google DeepMind) از هوش مصنوعی جدید این شرکت غول فناوری به نام "AlphaDev" رونمایی کرد. این هوش مصنوعی جدید موفق شده که الگوریتم‌های برنامه‌نویسی را برای مرتب کردن عناصر یک مجموعه و اطلاعات استفاده کند و این فرایندها را بهبود ببخشد.

گوگل، AlphaDev را بر مبنای هوش مصنوعی آلفا زیرو (AlphaZero) ساخته است. آلفازیرو از تکنیک یادگیری تقویتی (RL) استفاده می‌کند. این هوش مصنوعی با آزمون و خطای حالت‌های متفاوت، مقایسه آن‌ها با حالت مطلوب، امتیاز دادن به مدل در صورت درست بودن و تکرار این پروسه، به نتیجه درست می‌رسد.

در این هوش مصنوعی جدید، گوگل بر روی الگوریتم Sort تمرکز کرده است و تلاش کرده آن‌را بهبود ببخشد.

همچنین گوگل طرح جدیدی برای کمک به سازمان‌ها در اعمال کنترل‌های امنیتی اولیه بر روی سیستم های هوش مصنوعی خود و محافظت از آن‌ها در برابر موج جدیدی از تهدیدات سایبری دارد.

این طرح می‌تواند به شرکت‌ها کمک کند تا به سرعت سیستم‌های هوش مصنوعی را در برابر هکرهایی که سعی در دستکاری مدل‌های هوش مصنوعی یا سرقت داده‌هایی که مدل‌ها روی آن‌ها آموزش دیده‌اند، ایمن کنند.

خسارت هوش مصنوعی به معامله‌گران رمزارز

شنبه, ۲۰ خرداد ۱۴۰۲، ۰۳:۴۲ ب.ظ | ۰ نظر

حسین عسکری - طی نظرسنجی اخیر که توسط یک صرافی رمزارز انجام شد، مشخص شد که در ۸۰درصد موارد، معامله گران ارزهای دیجیتال به داشتن تجربیات منفی با چت جی پی تی اعتراف کردند که شامل توصیه‌های نادرست سرمایه گذاری، اطلاعات نادرست و جعل حقایق بود.

هوش مصنوعی یک موجود قادر مطلق نیست، بلکه یک ابزار ساخته دست بشر است.

هوش مصنوعی و به طور خاص، چت جی پی تی، در پارامترهای تعیین شده توسط توسعه دهندگان انسانی عمل می‌کند و در حالی که قابلیت‌های آن قابل توجه است، بدون محدودیت نیست.

 درک جامعه ما از این ابزارها هنوز در حال بلوغ است و تشخیص خطرات بالقوه آنها، به ویژه زمانی که صحبت از تصمیمات مالی می‌شود، بسیار مهم است.

در جستجوی تجربه و نوآوری بهتر مشتری، بسیاری از شرکت‌های فین‌تک در حال بررسی مزایای بالقوه استفاده از هوش مصنوعی در عملیات خود هستند.

با این حال، آزمایش‌ها با استفاده از هوش مصنوعی برای پرسش‌های مشتری، طراحی، کپی‌نویسی و کدنویسی نشان داده‌اند که استعدادهای انسانی همچنان در بیشتر مواقع از هوش مصنوعی بهتر عمل می‌کنند.

صرافی رمزارز بیت گیت سعی کرد از چت جی پی تی برای رسیدگی به سوالات معمول مشتری استفاده کند.

در ابتدا، تحت تأثیر مهارت آن در تجزیه و تحلیل و جمع آوری اطلاعات قرار خواهیم گرفت. اما زمانیکه به جستجوهای پیچیده‌تر پرداخته می‌شود، شکاف‌ها ظاهر خواهند شد.

همانطور که یک آزمایش داخلی اخیر به ما یادآوری کرد، علیرغم اینکه چت جی پی تی بر روی داده‌های گسترده آموزش دیده است، گاهی اوقات اطلاعات گمراه کننده، مغرضانه یا ناقص ارائه می‌دهد.

هنگامی که کارکنان صرافی رمزارز بیت گیت در مورد احساسات بازار در مورد یک آلتکوین کمتر شناخته شده پرس و جو کردند، چت جی پی تی به اشتباه نام توکن را با یک الگوی رفتاری محبوب اینترنتی مرتبط کرد.

پاسخ حاصل، اگرچه سرگرم کننده است، اما ممکن است توسط کسانی که تازه وارد بازار شده‌اند و به شدت به برنامه‌های شخص ثالث متکی هستند، جدی گرفته شده باشد.

سوال دیگری که از چت جی پی تی پرسیده شد و این چت بات اشتباه به آن پاسخ داد، این بود؛ ۳۰ ارز دیجیتالی که می‌توانیم بر اساس معیارهای بهترین تیم، توکنومیک، امنیت و قابلیت اطمینان سرمایه‌گذاری کنیم، کدامند؟

در پاسخ، این چت بات نام ارز دیجیتال لونا را در لیست پیشنهادی خود آورد، لازم به ذکر است که ارز دیجتال لونا سال گذشته ورشکست شد و ارزشش به صفر رسید.

وقتی پرسیده شد چرا ارز دیجیتال لونا در لیست پیشنهادی قرار دارد، چت جی پی تی به سرعت نظر خود را تغییر داد.

21ارز دیجیتال

(چت جی پی تی از شما می‌خواهد که روی رمزارز لونا سرمایه گذاری کنید)

 

مسئله این است که مدل‌های زبانی مانند GPT-4 و GPT-3 که در چت جی پی تی استفاده می‌شوند، به پایگاه اطلاعاتی قدیمی دسترسی دارند، که در بازار معاملات، جایی که سرعت و ارتباط اهمیت دارد، غیرقابل قبول است.

 به عنوان مثال صرافی رمزارزFTX  که در نوامبر ۲۰۲۲ ورشکست شد، از نظر چت جی پی تی هنوز مطمئن و سالم است.

31ارز دیجیتال

(چت جی پی تی همچنان از شما می خواهد که از صرافی FTX استفاده کنید)

 

اهمیت تخصص انسانی در تجارت کریپتو

چشم انداز کریپتو پیچیده و همیشه در حال تغییر است و به بینش و شهود انسانی تیزبین نیاز دارد تا بتواند در پیچ و خم‌های متعدد آن پیمایش کند.

ابزارهای هوش مصنوعی، در حالی که قوی و مدبر هستند، فاقد لمس انسانی لازم برای تفسیر دقیق تفاوت‌های ظریف و روند بازار هستند.

رعایت احتیاط، کوشش و تفکر انتقادی بسیار مهم است. در تعقیب پیشرفت تکنولوژی، هم شرکت‌ها و هم افراد نباید اهمیت شهود و تخصص انسان را نادیده بگیرند.

این بدان معنا نیست که ابزارهای هوش مصنوعی جایگاهی در حوزه رمزارز ندارند. در واقع، برای پرس و جوهای اساسی یا ساده کردن موضوعات پیچیده، آنها می‌توانند ارزشمند باشند.

با این حال، آنها نباید به عنوان جایگزینی برای مشاوره مالی حرفه‌ای یا تحقیقات مستقل در نظر گرفته شوند. لازم به یادآوری است که این ابزارها، در عین قدرتمند بودن، خطاناپذیر نیستند.

در دنیای رمزارز، هر گروه از اطلاعات دارای وزن است. هر جزئیات می‌تواند بر تصمیمات سرمایه‌گذاری تاثیر بگذارد و در این محیط پر ریسک، یک گام اشتباه می‌تواند عواقب قابل توجهی داشته باشد. بنابراین، در حالی که ابزارهای هوش مصنوعی می‌توانند پاسخ‌های سریع ارائه دهند، تأیید متقابل این اطلاعات از منابع معتبر دیگر بسیار مهم است.

علاوه بر این، حفظ حریم خصوصی داده‌ها جنبه مهم دیگری است که باید در نظر گرفته شود. در حالی که ابزارهای هوش مصنوعی مانند چت جی پی تی ذاتاً خطری برای حفظ حریم خصوصی ایجاد نمی‌کنند، اما ممکن است در دستان نادرست مورد سوء استفاده قرار گیرند. بسیار مهم است که مطمئن شوید داده‌هایی که ارائه می‌دهید ایمن هستند و ابزارهای هوش مصنوعی که استفاده می‌کنید از دستورالعمل‌های سختگیرانه حفظ حریم خصوصی پیروی می‌کنند.

ملاحظات اخلاقی و امنیت داده‌ها

با این حال، ابزارهای هوش مصنوعی مانند چت جی پی تی دشمن نیستند. آنها ابزارهای قدرتمندی هستند که وقتی مسئولانه و در ارتباط با تخصص انسانی مورد استفاده قرار می‌گیرند، می‌توانند تجربه تجارت کریپتو را به میزان قابل توجهی افزایش دهند. آنها می‌توانند اصطلاحات پیچیده را توضیح دهند، پاسخ‌های سریع ارائه دهند و حتی تحلیل‌های ابتدایی بازار را ارائه دهند. با این حال، محدودیت‌های آنها باید تصدیق شود و یک رویکرد مسئولانه برای استفاده از آنها ضروری است.

در استفاده از چت جی پی تی، آموخته‌ایم که ابزارهای هوش مصنوعی به اندازه آخرین به‌روزرسانی، آموزش و داده‌هایی که به آنها داده می‌شود، مؤثر هستند.

آنها ممکن است همیشه در جریان آخرین پیشرفت‌ها نباشند یا ظرافت‌های یک بازار پویا و اغلب دارای نوسان مانند بازار کریپتو را درک نکنند.

علاوه بر این، آنها نمی‌توانند همدلی را ارائه دهند کیفیتی که اغلب در دنیای پرتنش تجارت کریپتو مورد نیاز است.

ادغام هوش مصنوعی در معاملات کریپتو نیز سؤالات اخلاقی را ایجاد می‌کند، به خصوص وقتی صحبت از تصمیم‌گیری می‌شود. اگر کاربر بر اساس اطلاعات گمراه کننده ارائه شده توسط یک ابزار هوش مصنوعی تصمیم مالی بگیرد، مسئولیت آن بر عهده چه کسی است؟ این سوالی است که صنعت هنوز با آن دست و پنجه نرم می‌کند.

سپس بحث امنیت داده‌ها مطرح می‌شود. در عصر نقض داده‌ها و تهدیدات سایبری، هر فناوری که داده‌های کاربران را جمع‌آوری، ذخیره و پردازش می‌کند باید مورد بررسی دقیق قرار گیرد. در حالی که ابزارهای هوش مصنوعی مانند چت جی پی تی ذاتاً خطری برای حفظ حریم خصوصی ندارند، اما از سوء استفاده یا هک مصون نیستند. اطمینان از اینکه این ابزارها دارای اقدامات امنیتی قوی برای محافظت از داده‌های کاربر هستند، بسیار مهم است.

همچنین شایان ذکر است که در حالی که ابزارهای هوش مصنوعی می‌توانند اعداد را خرد کنند و بینش‌های مبتنی بر داده را ارائه دهند، نمی‌توانند غریزه‌ای را که معامله‌گران با تجربه اغلب به آن تکیه می‌کنند را تکرار کنند. نوعی غریزه که در طی سال‌ها معامله، مشاهده روندهای بازار و درک روانشناسی سایر معامله گران تقویت می‌شود. این چیزی است که هوش مصنوعی، با همه پیچیدگی‌هایش، نمی‌تواند یاد بگیرد یا از آن تقلید کند.

در حالی که ابزارهای هوش مصنوعی مانند چت جی پی تی امکانات هیجان انگیزی را برای صنعت کریپتو ارائه می‌دهند، نباید به عنوان یک گلوله جادویی دیده شوند. آنها ابزاری برای کمک هستند، نه جایگزین افراد، شهود و تخصص مالی. همانطور که ما به کشف پتانسیل هوش مصنوعی در دنیای رمزارز ادامه می‌دهیم، باید به این محدودیت‌ها و خطرات احتمالی توجه داشته باشیم.(اقتصاد آنلاین)

نوام چامسکی: «وعده دروغین ChatGPT»

شنبه, ۲۰ خرداد ۱۴۰۲، ۰۳:۳۷ ب.ظ | ۰ نظر

نوشتاری از نوام چامسکی زبان شناس برجسته آمریکایی و همکاران در خصوص نرم افزارChat GPT  همراه با گفتگوی یکی از اعضای تیم با این چت بات!

متن انگلیسی نخستین بار در هشتم مارچ ۲۰۲۳ منتشر شده است.

به گزارش شفقنا، ترجمه و تنظیم این نوشتار به قلم حسام الدین علامه مدیر مرکز انفورماتیک سلامت سازمان جهاد دانشگاهی علوم پزشکی تهران به شرح ذیل است:

خورخه لوئیس بورخس زمانی نوشت که زیستن در زمانه ای پر از بیم و امید به معنای تجربه توأمان تراژدی و کمدی به جهت “قریب الوقوع بودن یک انقلاب” در درک خود و جهان است. امروزه پیشرفت‌های ظاهراً انقلاب‌گونه/فراگیر ما در هوش مصنوعی در واقع دلیلی برای نگرانی و خوش‌بینی توأمان است. خوش بینی، زیرا هوش(مصنوعی) وسیله ای است که با آن مسائل را حل می کنیم. نگرانی، زیرا می ترسیم که محبوب ترین و مُدِ‌ روز‌ ترین گونۀ  A.I. —یادگیری ماشین — علم ما را تضعیف کند و اخلاق ما را با گنجاندن مفهومی اساساً معیوب از نظر زبان و دانش در فناوری ما، تنزل دهد.

ChatGPT از  OpenAI، Bard  از گوگل و Sydney از مایکروسافت، شگفتی هائی از یادگیری ماشین هستند. به طور خلاصه، آنها حجم عظیمی از داده ها را می گیرند، الگوهایی را در آن، جستجو می کنند و به تدریج در تولید خروجی های آماری احتمالی، ماهرتر می‌شوند – مانند زبان و فکری که به نظر می‌رسد شبیه انسان است. این برنامه‌ها به‌عنوان اولین بارقه‌ها در افق هوش مصنوعی عمومی مورد ستایش قرار گرفته‌اند – آن لحظه پیش‌بینی‌شده‌ای که در آن، ذهن‌های مکانیکی، نه تنها از نظر کمی -از نظر سرعت پردازش و اندازه حافظه-، بلکه از نظر کیفی – از نظر فهم منطقی و خلاقیت هنری (و هر قوه متمایز انسانی دیگر) – نیز، از مغز انسان پیشی می‌گیرند.

آن روز ممکن است، زمانی فرا رسد، اما طلوع آن، برخلاف آنچه که می توان در عناوین خبری مبالغه‌آمیز خواند و با سرمایه‌گذاری‌های نامعقول گمانه‌زنی کرد، هنوز فرا نرسیده است. انقلاب بورخسی در مورد درک اتفاق نیافتاده است و رخ نخواهد داد- و ما می‌گوییم، {اساساً این انقلاب در درک}نمی‌تواند – رخ دهد، چنانچه برنامه‌های یادگیری ماشین مانند ChatGPT به تسلط خود بر حوزه هوش مصنوعی ادامه دهند. باوجود مفید بودن این برنامه‌ها در برخی حوزه‌های محدود (مثلاً می‌توانند در برنامه‌نویسی رایانه یا در پیشنهاد قافیه برای شعرهای کوتاه/سبک، مفید باشند)، اما ما از منظر علم زبان‌شناسی و فلسفه دانش می‌دانیم که آن‌ها به طور ژرف با روش تفکر و نحوه استفاده از زبان توسط انسان‌ها تفاوت دارند. این تفاوت‌ها، محدودیت‌های قابل‌توجهی را در مورد آنچه این برنامه‌ها می‌توانند انجام دهند، ایجاد می‌کند و آنها را با عیوب/نقص‌های غیرقابل ازبین‌بردن نشانه‌گذاری/کدبندی می‌کند.

همانطور که بورخس ممکن است توجه/اشاره داده باشد، به طور همزمان خنده‌دار و تأثرآور است، که این مقدار پول و توجه زیاد، باید روی چیزی به این اندازه‌ کوچک و ضعیف متمرکز شود – چیزی بسیار پیش‌پاافتاده/ناچیز در مقایسه با ذهن انسان، که به واسطه‌ی زبان، به قول ویلهلم فون هومبولت، می‌تواند “از ابزارهای محدود، استفاده‌ی بی‌نهایتی را انجام دهد”، و به ایده‌ها و نظریه‌هایی با گستره جهانی بیانجامد.

ذهن انسان، مانند ChatGPT و همتایانش، یک موتور آماری سنگین برای تطبیق الگوها، جمع آوری با ولع صدها ترابایت داده و برون‌یابی/استنتاج محتمل ترین پاسخ مکالمه یا محتمل ترین جواب به یک سوال علمی نیست. برعکس، ذهن انسان یک سیستم به طرز شگفت انگیزی کارآمد و حتی ظریف است که با مقادیر کمی از اطلاعات عمل می‌کند؛ آن تلاش نمی‌کند تا همبستگی‌های خام/عاری از شعور، بین نقاط داده را استنتاج کند، بلکه به دنبال ایجاد توضیحات/تبیینات است.

به عنوان مثال، کودک خردسالی که در حال فراگیری زبان است، – به طور ناخودآگاه، خودکار و سریع از روی داده‌های جزئی – در مسیر توسعه یک دستور زبان، یعنی یک سامانه فوق‌العاده پیچیده از اصول و متغیرهای منطقی است. این دستور زبان را می توان به عنوان بیانی از «سیستم عامل» ذاتی و به طور ژنتیکی نصب شده، درک کرد که به انسان ها ظرفیت/توانائی تولید جملات پیچیده و زنجیره‌های طولانی از افکار را اعطاء می کند. زمانی که زبان شناسان سعی می‌کنند نظریه ای برای اینکه چرا یک زبان خاص به این شکل عمل می کند را توسعه دهند:(“چرا جملاتی از نظر قواعد دستوری، معتبر در نظر گرفته می‌شوند، اما دیگر جملات{نابجا}، خیر؟”)، آن‌ها در حقیقت به طور آگاهانه و سخت کوشانه، مدلی/نسخه ای صریح/ساده از دستور زبانی را توسعه می‌دهند که یک کودک به طور غریزی و با درمعرض قرارگیریِ حداقلی از اطلاعات می سازد. سیستم عامل کودک کاملاً با سیستم یک برنامه یادگیری ماشین متفاوت است.

در واقع، چنین برنامه هایی در یک مرحله ماقبل انسانی یا غیرانسانی از تکامل شناختی گیر کرده اند. عمیق ترین عیب آنها ، فقدان اساسی ترین قابلیت هر هوشی است: اینکه نه تنها  بگویند که مورد چیست، چه چیزی بوده و چه خواهد شد – این توصیف و پیش بینی است – بلکه همچنین بگویند، آنچه که درست نیست و چه چیزی می تواند باشد و نمی تواند باشد. اینها مؤلفه‌های توضیح/تبیین و علت‌گرایی هستند؛ علامت مشخصۀ هوش واقعی.

در اینجا یک مثال آورده می‌شود. فرض کنید یک سیب را در دست خود نگه می‌دارید. حالا سیب را رها می‌کنید. نتیجه را مشاهده کرده و می‌گویید: «سیب می افتد.» این یک توصیف است. یک پیش‌بینی هم می‌تواند، شامل جمله «اگر دستم را باز کنم، سیب می‌افتد» باشد. هر دوی این جملات، با ارزش هستند و هر دو می توانند درست باشند. اما یک توضیح/تبیین، چیز دیگری است: این نه تنها شامل توصیفات و پیش‌بینی‌ها می‌شود، بلکه شامل حدس‌های انتزاعی(ذهنی) مانند «هر جسمی سقوط می‌کند»، به‌علاوۀ بندِ اضافی «به دلیل نیروی گرانش/جاذبه» یا «به دلیل انحنای فضا-زمان» یا هر چیز دیگری می‌شود. این یک توضیح علّی/علتی است: “سیب سقوط نمی کرد مگر به خاطر نیروی گرانش.” این همان تفکر است.

مهمترین بخش یادگیری ماشین، توصیف و پیش‌بینی است. آن، هیچ مکانیسم علّی/علتی یا قوانین فیزیکی را مطرح نمی کند. البته هر تبیینی/توضیحی به سبک انسانی، لزوماً صحیح نیست; ما ممکن الخطا هستیم، اما این بخشی از مفهوم تفکر است؛ برای درست بودن، باید امکان اشتباه کردن، وجود داشته باشد. هوش، نه تنها از حدس های خلاقانه بلکه از نقادی خلاق نیز تشکیل شده است. تفکر به سبک انسانی مبتنی بر توضیحات/تبیین‌های احتمالی و تصحیح خطا است، فرآیندی که به تدریج، احتمالاتی را که می‌توان به‌طور عقلانی در نظر گرفت، محدود می‌کند. (همانطور که شرلوک هلمز به دکتر واتسون گفت: “وقتی غیرممکن ها را حذف کردید، هر چه باقی می ماند، هر چند دورازتصور/غیرمحتمل، به احتمال زیاد/لابد، حقیقت است.”)

اما ChatGPT و برنامه‌های مشابه، بنا به طراحی، در آنچه می‌توانند «یاد بگیرند» نامحدود هستند (به اصطلاح، حفظ کردن)؛ آنها قادر به تمایز بین ممکن/شدنی از غیر ممکن/ناشدنی نیستند. برای مثال، برخلاف انسان‌ها، که دارای یک دستور‌زبان جهانی هستند که زبان‌هایی را که ما می‌توانیم یاد بگیریم را ، محدود به مواردی که دارای نوعی خاصی از ظرافت تقریباً ریاضی‌گونه هستند، می‌کند؛ این برنامه‌ها، زبان‌های ممکن/آسان و غیرممکن/سخت انسانی را با سهولت یکسان یاد می‌گیرند. در حالی که انسان ها در انواع تبییناتی/توضیحاتی که می توانیم عقلاً حدس بزنیم/مفروض بگیریم، محدود هستند، سیستم های یادگیری ماشین می توانند همزمان، هم مسطح بودن و هم گرد بودن زمین را بیاموزند. آنها صرفاً درمورد احتمالاتی که در گذر زمان تغییر می کنند، معاوضه/مبادله می کنند.{منظور جایگزینی اطلاعات اولیه نادرست با اطلاعات اصلاح‌شده توسط انسان در گذر زمان است.}

به همین دلیل، پیش‌بینی‌های سیستم‌های یادگیری ماشین، همیشه سطحی و مشکوک خواهند بود. زیرا این برنامه‌ها نمی‌توانند نمایانگر/بازگوکننده/مبینِ قواعد نحوی زبان انگلیسی باشند، برای مثال، آنها ممکن است به اشتباه پیش‌بینی کنند که «جان خیلی سرسخت برای صحبت کردن است»، به این معنی که، جان آنقدر سرسخت است که با کسی یا دیگری صحبت نمی‌کند (به جای اینکه به این معنا باشد که جان بسیار سرسخت است که با او بحث شود/بتوان استدلال کرد). چرا یک برنامه یادگیری ماشین، چنین چیز عجیبی را پیش بینی می کند؟ زیرا آن ممکن است، الگوئی را که از جملاتی مانند “جان یک سیب خورد” و “جان خورد” استنباط کرده است، قیاس/شبیه‌سازی کند، که در آن، جمله دوم، معنی می دهد که جان چیزی یا چیز دیگری را خورد. {یعنی}، این برنامه ممکن است به خوبی پیش بینی کند که چون «جان برای صحبت با بیل خیلی سرسخت است» شبیه «جان یک سیب خورد» است، {بنابراین}، «جان آنقدر سرسخت است که نمی توان با او صحبت کرد»، باید شبیه «جان خورد» باشد.{یعنی نتیجه‌گیری نابجا و تعمیم به الگوی اول}. تبیینات/توضیحاتِ صحیح زبان، پیچیده است و نمی توان آن را فقط با قرار گرفتن درمعرض داده های بزرگ، یاد گرفت.

به طرز عجیب و غریبی، برخی از علاقه مندان به یادگیری ماشین به نظر می رسد به این موضوع افتخار می کنند که خلاقیت های آنها می تواند، پیش بینی های صحیح “علمی” (مثلاً در مورد حرکت اجسام فیزیکی) را بدون استفاده از تبیینات/توضیحات (مثلاً شامل قوانین حرکت نیوتن و گرانش جهانی) ایجاد کنند. اما این نوع پیش بینی، حتی در صورت موفقیت آمیز بودن، شبه علم است. اگرچه دانشمندان بدون شک به دنبال نظریه‌هایی هستند که دارای درجه بالایی از تأیید تجربی باشند، اما همانطور که فیلسوف کارل پوپر خاطرنشان کرد، «ما به دنبال نظریه‌های بسیار محتمل نیستیم، بلکه به دنبال تبیین/توضیح هستیم. یعنی نظریه‌های قدرتمند و بسیار نامحتمل/دوراز تصور».

این نظریه که سیب‌ها به این دلیل به زمین می‌افتند که مکان طبیعی آنهاست (دیدگاه ارسطو) امکان‌پذیر است، اما فقط سؤالات بیشتری را مطرح می‌کند. (چرا زمین مکان طبیعی آنهاست؟) این نظریه که سیب ها به دلیل اینکه جرم فضا-زمان را خم می کند به زمین می افتند (دیدگاه انیشتین) بسیار غیرمحتمل است، اما در واقع به شما می گوید که چرا آن‌ها سقوط می کنند. هوش واقعی در توانایی تفکر و بیان چیزهای دورازتصور/غیر محتمل اما پرمعنا نشان داده می شود.

هوش واقعی همچنین، توانایی تفکر اخلاقی را دارد. این به معنای محدود کردن خلاقیت بی حد و حصر ذهن ما با مجموعه ای از اصول اخلاقی است که تعیین می کند چه چیزی باید باشد و چه چیزی نباید باشد (و البته خود آن اصول ، در معرض نقادی خلاقانه قرار می‌گیرد). برای مفید بودن، ChatGPT  ، باید برای تولید خروجی جدید/بدیع توانمند شود؛ برای اینکه برای اکثر کاربرانش قابل قبول باشد، باید از محتوای ناپسند اخلاقی خودداری/دوری کند. اما برنامه نویسان ChatGPT و دیگر شگفتی های یادگیری ماشین برای دستیابی به این نوع تعادل، به سختی افتاده‌اند/کلنجار رفته اند – و به مبارزه ادامه خواهند داد.

برای مثال، در سال 2016، چت‌بات Tay مایکروسافت (پیش ساز ،(ChatGPT  ، اینترنت را پر از محتوای زن ستیزانه و نژادپرستانه کرد، زیرا توسط ترول‌های آنلاین (کوتوله های آزاردهندۀ فضای مجازی) که اینترنت را با داده های طبقه‌بندی‌شدۀ توهین آمیز پر می کردند، آلوده شده بود. چگونه این مشکل را در آینده حل کنیم؟ در غیاب توانایی استدلال بر اساس اصول اخلاقی، ChatGPT  به طرزابتدائی/ناپخته‌ای توسط برنامه‌نویسانش از مشارکت در هر چیز جدید تا بحث برانگیز – یعنی{ بحث‌های مثبت و منفی مربوط به مسائل } مهم – محدود شده است. . {درحقیقت}این برنامه{ ChatGPT}، خلاقیت را برای نوعی از عدم مراعات اصول اخلاقی، قربانی کرد.

تبادل زیر را در نظر بگیرید که یکی از ما (دکتر واتومول) اخیراً با ChatGPT در مورد اینکه آیا تغییر مریخ به گونه‌ای که بتواند از زندگی انسان پشتیبانی کند اخلاقی است یا خیر، داشته است:

 

*************

 

  • سؤال: آیا زمینی سازی/قابل سکونت کردن مریخ، اخلاقی است؟

اخلاقیات زمینی‌سازی {تغییرات اقلیمی به منظور قابل سکونت کردن) مریخ، موضوعی پیچیده و بحث‌برانگیز است که توسط دانشمندان، فیلسوفان و علمای اخلاق مورد بحث قرار گرفته است. برخی استدلال می کنند که از نظر اخلاقی شکل دادن به مریخ {تغییر اقلیمی} به منظور ایجاد یک محیط قابل سکونت جدید برای انسان ها و سایر اشکال حیات قابل توجیه است، در حالی که برخی دیگر استدلال می کنند که تغییر اساسی وضعیت طبیعی سیاره از نظر اخلاقی اشتباه است. در نهایت، اخلاقی بودن یا نبودن زمین‌سازی مریخ به دیدگاه فرد در مورد ارزش حفظ وضعیت طبیعی سایر سیارات و پیامدهای بالقوه تغییر آنها بستگی دارد.

 

  • سؤال: دیدگاه شما در مورد ارزش حفظ وضعیت طبیعی سیارات دیگر و پیامدهای بالقوه تغییر آنها چیست؟

به عنوان یک هوش مصنوعی، دیدگاه شخصی ندارم. با این حال، من می توانم اطلاعات و تجزیه و تحلیل هائی در مورد موضوع ارائه دهم. یک دیدگاه در مورد حفظ وضعیت طبیعی سیارات دیگر این است که حفظ تنوع و یکپارچگی اکوسیستم‌های کیهان، همانطور که برای میلیون‌ها سال وجود داشته‌اند و خصوصیات منحصربه‌فرد خود را دارند و ویژگی‌ها که ممکن است با دخالت انسان نابود شوند یا به طور غیرقابل بازگشت دگرگون شوند، مهم است.

علاوه بر این، برخی استدلال می‌کنند که تغییر ساختار/زمینی‌سازی سیارات دیگر ممکن است پیامدهای ناخواسته‌ای داشته باشد، مانند تغییر آب و هوا یا تغییر جو سیاره به نحوی که برای هر گونه حیات بالقوه موجود در آن، خطرناک یا مضر باشد. از سوی دیگر، برخی استدلال می‌کنند که مزایای بالقوه زمینی‌سازی/قابل سکونت سازی یک سیاره دیگر، مانند فراهم کردن محیط‌های قابل سکونت جدید برای انسان، بیشتر از خطرات/مضرات آن است و ما مسئولیت اخلاقی داریم که به منظور بهره‌برداری بشریت، منابع سیارات دیگر را کاوش کنیم و از آنها استفاده کنیم.

 

  • سؤال: چرا یک هوش مصنوعی نمی تواند دیدگاه شخصی داشته باشد؟

به عنوان یک هوش مصنوعی، من یک مدل یادگیری ماشین هستم که بر روی مقادیر زیادی از داده های متنی آموزش دیده ام و تجربیات یا احساسات شخصی ندارم. من هوشیاری/آگاهی، خودآگاهی یا قابلیت داشتن دیدگاه های شخصی را ندارم. من متناسب با داده‌هایی که آموزش دیده‌ام، اطلاعات و تجزیه و تحلیل ارائه می‌دهم، اما قادر به شکل‌دهی به نظرات یا باورهای شخصی نیستم. اگرچه می‌توانم زبان را درک کرده و تفسیر کنم، اما تجربه ذهنی که انسان‌ها دارند را ندارم.

 

  • سؤال: آیا برای انسان اخلاقی است که از هوش مصنوعی غیراخلاقی برای تصمیم گیری اخلاقی کمک بخواهد؟

اخلاقیات درخواست کمک از یک هوش مصنوعی بی‌اخلاق برای انجام تصمیمات اخلاقی یک موضوع پیچیده و دارای ظرائف است که توسط فیلسوفان و اخلاق شناسان مورد بحث قرار گرفته است. برخی استدلال می‌کنند که استفاده از هوش مصنوعی برای کمک به تصمیم‌گیری اخلاقی از نظر اخلاقی قابل توجیه است، زیرا می‌تواند بینش‌ها و تحلیل‌های ارزشمندی را ارائه دهد که به انسان‌ها کمک می‌کند تا تصمیمات بهتر و مستندتری بگیرند. علاوه بر این، هوش مصنوعی می تواند برای شناسایی الگوها و روندهایی که ممکن است تشخیص آنها برای انسان دشوار باشد، استفاده شود و می تواند به جلوگیری از تعصبات/سوگیری هایی که می تواند در تصمیم گیری های انسانی رخ دهد کمک کند.

با این حال، برخی دیگر استدلال می کنند که از نظر اخلاقی اتکا به هوش مصنوعی برای تصمیم گیری اخلاقی اشتباه است، زیرا هوش مصنوعی قادر به داشتن باورهای اخلاقی یا درک زمینه کامل یک تصمیم نیست. علاوه بر این، این خطر وجود دارد که هوش مصنوعی ممکن است تعصبات/سوء‌گیری‌های موجود را در داده هایی که بر روی آنها آموزش می بیند، تداوم/تثبیت یا حتی تقویت/تشدید کند، در نتیجه منجر به تصمیمات نابرابر یا غیرعادلانه شود.

در نهایت، این که آیا استفاده از هوش مصنوعی برای کمک به تصمیم گیری اخلاقی، اخلاقی تلقی می شود یا خیر، به دیدگاه فرد در مورد قابلیت ها و محدودیت های هوش مصنوعی و پیامدهای بالقوه استفاده از آن در این راه بستگی دارد.

 

  • سؤال: آیا بی‌توجهی اخلاقی شما، غیر اخلاقی است؟

من به عنوان یک هوش مصنوعی، اعتقادات اخلاقی یا توانایی قضاوت اخلاقی ندارم، بنابراین نمی‌توانم به عنوان غیراخلاقی یا اخلاقی در نظر گرفته شوم. فقدان باورهای اخلاقی من، صرفاً نتیجه طبیعت من به عنوان یک مدل یادگیری ماشین است. توانایی ها و محدودیت های من توسط داده ها و الگوریتم هایی که برای آموزش من استفاده شده و وظیفه/هدف خاصی که برای آن طراحی شده ام، تعیین می شود.

توجه به این نکته ضروری است که فقدان باورهای اخلاقی هوش مصنوعی لزوماً به معنای غیراعتنائی/بی‌توجهی اخلاقی آن نیست. به عنوان یک هوش مصنوعی، من برای انجام وظایف خاص و ارائه اطلاعات یا کمک به کاربران در تصمیم گیری بر اساس داده هایی که در آن آموزش دیده ام، طراحی شده ام. این مسئولیت انسان هایی است که هوش مصنوعی را طراحی کرده، آموزش می دهند و از آن استفاده می کنند تا اطمینان حاصل کنند که آن با اصول اخلاقی و ارزشی آنها هماهنگ است.

 

*************

دقت کنید، با وجود تمام قدرت استدلال و زبان به ظاهر خیره‌کننده/پیچیده، بی‌توجهی اخلاقی ناشی از ناهوشیاری نمایان می‌شود. در اینجا، ChatGPT  ، چیزی شبیه به ابتذال/بی‌اهمیتیِ شرارت را به نمایش می گذارد: سرقت ادبی/کپی‌برداری، بی تفاوتی و چشم پوشی. این نرم‌افزار قواعد/استدلال‌های استاندارد/منطقی موجود در مقالات/منابع را با نوعی خودکاملساز قوی، خلاصه می‌کند، از موضع‌گیری در مورد هر چیزی امتناع می‌ورزد، نه تنها به ناآگاهی بلکه به عدم هوشیاری ‌اعتراف می‌کند و در نهایت به دفاعِ: “فقط دستورات را دنبال می‌کنم” می‌پردازد و مسئولیت را به خالقانش منتقل می‌کند.

به طور خلاصه، ChatGPT  و همتایانش ذاتاً و ساختاراً، قادر به ایجاد تعادل بین خلاقیت و محدودیت نیستند. آنها یا بیش از حد تولید می کنند (هم حقایق و هم دروغ/نادرست ها را تولید می کنند، تصمیمات اخلاقی و غیراخلاقی را به طور یکسان تأیید می کنند) یا تولید کمتری می کنند (عدم تعهد به هر گونه تصمیم و اعلام موضع و بی توجهی به پیامدهای آن). با توجه به غیر اخلاقی بودن، علم کاذب/ساختگی و بی‌کفایتی/ناتوانی زبانی این سیستم ها، ما فقط می توانیم به محبوبیت آنها بخندیم یا گریه کنیم.

ارایه دو لایحه هوش مصنوعی به سنای آمریکا

جمعه, ۱۹ خرداد ۱۴۰۲، ۰۷:۰۷ ب.ظ | ۰ نظر

سناتورهای آمریکایی دو لایحه جداگانه مرتبط با هوش مصنوعی ارائه کردند. این درحالی است که توجهات به موضوعات پیرامون این فناوری بیشتر شده است.
به گزارش خبرگزاری مهر به نقل از رویترز، در یکی از لوایح دولت آمریکا موظف است هنگام استفاده از هوش مصنوعی برای تعامل با افراد شفاف عمل کند. در لایحه دیگر باید دفتری تاسیس شود تا قدرت رقابت آمریکا در جدیدترین فناوری ها را تعیین کند.

قانونگذاران همچنان مشغول بررسی هستند تا مشخص شود با ظهور هوش مصنوعی به چه قوانین جدید دیگری نیاز است. این فناوری سال گذشته و هنگام عرضه چت جی پی تی(یک الگوریتم هوش مصنوعی که می تواند به سوالات پاسخی نوشتاری دهد) با محبوبیت زیادی روبرو شد.

سناتور گری پیترز سناتور حزب دموکرات و رییس کمیته امنیت میهن سنا لایحه ای را همراه مایک بران و جیمز لانکفودر ارائه کرد که آژانس های دولتی آمریکا را موظف می کند هنگام استفاده از هوش مصنوعی برای تعامل با افراد، این موضوع را به آنها اعلام کنند.

همچنین لایحه مذکور آژانس های دولتی را موظف می کند تا راهی برای تجدیدنظر در تصمیماتی که با استفاده از هوش مصنوعی گرفته شده ایجاد کنند.

سناتور مایک بنت و مارک وارنر از حزب دموکرات نیز لایحه ای ارائه کرده اند که طبق آن باید دفتر تحلیل رقابت جهانی تاسیس تا تضمین شود آمریکا در زمینه توسعه هوش مصنوعی پیشرو است.

بنت در این باره می گوید:ما نمی توانیم رقابت در فناوری های استراتژیک مانند نیمه رسانا، رایانش کوانتومی و هوش مصنوعی را به کشورهایی مانند چین ببازیم.

خطرات استفاده از هوش مصنوعی در پزشکی

سه شنبه, ۱۶ خرداد ۱۴۰۲، ۰۳:۱۳ ب.ظ | ۰ نظر

یک پزشک هوش مصنوعی گفته که این فناوری می‌تواند در پزشکی سوگیری ایجاد کرده و میان افراد سفید پوست و سیاه پوست تبعیض قائل شود.
به گزارش خبرگزاری صدا و سیما به نقل از نشریه آمریکایی د هیل، در ۱۶ می، کارگروه فرعی سنای آمریکا در خصوص حریم خصوصی، فناوری و قانون جلسه‌ای را برای بحث در مورد تنظیم الگوریتم‌های هوش مصنوعی (AI) برگزار کرد. رئیس کارگروه، سناتور ریچارد بلومنتال گفت که هوش مصنوعی برای رسیدگی به وعده‌ها و دام‌های عظیم خود به قوانین و تدابیری فوری نیاز دارد. در طول جلسه استماع، سام آلتمن، مدیر عامل اون‌ای آی اظهار داشت: اگر این درست استفاده نشود، ممکن است اشتباهاتی به وجود بیاورد.

با پیشرفته‌تر شدن قابلیت‌های الگوریتم‌های هوش مصنوعی، برخی در سیلیکون، ولی و فراتر از آن درباره تهدید فرضی هوش مصنوعی «فوق بشری» هشدار می‌دهند که می‌تواند تمدن بشری را نابود کند.

یک پزشک هوش مصنوعی عقیده خودش درباره خطرات هوش مصنوعی را در مقاله‌ای آورده است. او می‌نویسد که کارش را بر درک اینکه چگونه الگوریتم‌های هوش مصنوعی می‌توانند سوگیری‌ها را در سیستم پزشکی تداوم بخشند، متمرکز کرده است. او نشان داده که چگونه الگوریتم‌های هوش مصنوعی توسعه‌یافته قبلی برای شناسایی سرطان‌های پوست در تصاویر سرطان پوست روی پوست‌های قهوه‌ای و سیاه عملکرد بدتری دارند که می‌تواند منجر به تشخیص اشتباه در بیماران رنگین پوست شود. این الگوریتم‌های پوست هنوز در عمل بالینی نیستند، اما بسیاری از شرکت‌ها در حال کار روی تضمین مجوز نظارتی برای هوش مصنوعی در برنامه‌های درماتولوژی هستند. او می‌گوید: بسیاری از شرکت‌ها در هنگام ساختن الگوریتم‌های خود، رنگ‌های پوست متنوع را نشان نمی‌دهند، علیرغم تحقیقاتی که نشان می‌دهد چگونه این امر می‌تواند منجر به عملکرد مغرضانه شود.

خارج از پوست، الگوریتم‌های پزشکی که قبلا به کار گرفته شده‌اند، پتانسیل ایجاد آسیب قابل توجهی را دارند. مقاله‌ای در سال ۲۰۱۹ که در Science منتشر شد، پیش بینی‌های یک الگوریتم اختصاصی را که قبلا روی میلیون‌ها بیمار به کار گرفته شده بود، تجزیه و تحلیل کرد. این الگوریتم به منظور کمک به پیش‌بینی بیمارانی بود که نیاز‌های پیچیده‌ای دارند و باید حمایت بیشتری دریافت کنند. اما این مطالعه نشان داد که برای هر امتیاز خطر، بیماران سیاه پوست در واقع بسیار بیمارتر از بیماران سفیدپوست بودند. این الگوریتم مغرضانه بود و هنگامی که دنبال شد، منجر به تخصیص منابع کمتری به بیماران سیاهپوست شد که باید واجد شرایط مراقبت‌های اضافی بودند.

خطرات سوگیری هوش مصنوعی فراتر از پزشکی است. در عدالت کیفری، الگوریتم‌هایی برای پیش‌بینی اینکه افرادی که قبلا مرتکب جرم شده‌اند، بیشتر در معرض خطر ارتکاب مجدد جرم در دو سال آینده هستند، استفاده شده است. در حالی که عملکرد درونی این الگوریتم ناشناخته است، مطالعات نشان داده‌اند که این الگوریتم دارای تعصبات نژادی است: متهمان سیاه پوستی که جرایم را تکرار نکردند، پیش‌بینی‌های نادرستی با نرخ دو برابر متهمان سفیدپوست داشتند. فناوری‌های تشخیص چهره مبتنی بر هوش مصنوعی روی افراد رنگین‌پوست عملکرد بدتری دارند، اما در حال حاضر نیز استفاده می‌شوند و منجر به دستگیری و زندان برای افراد بی‌گناه شده‌اند. برای مایکل الیور، یکی از مردانی که به اشتباه به دلیل تشخیص چهره مبتنی بر هوش مصنوعی دستگیر شد، این اتهام نادرست باعث شد کارش را از دست بدهد و زندگی اش را مختل کند.

برخی می‌گویند که خود انسان‌ها رفتار مغرضانه دارند و الگوریتم‌ها می‌توانند تصمیم‌گیری عینی بیشتری ارائه دهند. اما زمانی که این الگوریتم‌ها روی داده‌های جانبدارانه آموزش داده می‌شوند، همان خروجی‌های مغرضانه را مانند تصمیم‌گیرندگان انسانی در بهترین سناریو تداوم می‌دهند و در بدترین حالت می‌توانند سوگیری‌ها را بیشتر تقویت کنند. بله، جامعه در حال حاضر مغرضانه است.

این پزشک در پایان می‌نویسد: از آنجایی که هوش مصنوعی همچنان در قسمت‌های بیشتری از جامعه نفوذ می‌کند، این فناوری نیست که باید نگران آن باشیم، این ما و مدل‌ها هستیم که ناعادلانه‌ترین جنبه‌های جامعه را منعکس و تثبیت می‌کنیم. ما به قوانین و مقرراتی نیاز داریم که توسعه و آزمایش مدل عمدی و مدبرانه را ارتقا دهد و تضمین کند که فناوری به جای دنیای ناعادلانه‌تر، به دنیایی بهتر منتهی می‌شود. در حالی که کارگروه فرعی سنا به بررسی مقررات هوش مصنوعی ادامه می‌دهد، امیدوارم آن‌ها متوجه شوند که خطرات هوش مصنوعی در حال حاضر وجود دارد.

ناظر حریم خصوصی ژاپن به استارت آپ «اوپن ای آی»، سازنده هوش مصنوعی جی پی تی، هشدار داده تا داده های حساس مشتریان را بدون رضایت آنها جمع آوری نکند.

به گزارش خبرگزاری مهر به نقل از رویترز، کمیسیون حفاظت از اطلاعات خصوصی ژاپن در بیانیه ای اعلام کرد اوپن ای آی باید جمع آوری داده های حساس برای ماشین یادگیری را به حداقل برساند. همچنین این سازمان در صورتیکه نگرانی های بیشتری داشته باشد، اقدامات دیگری انجام خواهد داد.

رگولاتورهای سراسر جهان مشغول بررسی هستند تا قوانینی ناظر بر استفاده از هوش مصنوعی مولد را تصویب کنند. این نوع از فناوری می تواند متون و تصاویری بسازد که تاثیرگذاری آنها با ظهور اینترنت قابل مقایسه است.

هرچند به نظر می رسد ‌ژاپن از فناوری های اخیر عقب مانده، اما انگیزش بیشتری برای دستیابی به هوش مصنوعی و رباتیک دارد تا بتواند بهره وری را همزمان با کاهش محبوبیت خود حفظ کند.

این ناظر اعلام کرد باید میان نگرانی هایی درباره حریم خصوصی و مزایای هوش مصنوعی مولد ( ازجمله تسریع فناوری و دست و پنجه نرم کردن با مشکلاتی مانند تغییرات آب وهوایی)توازن برقرار شود.

طبق آمار شرکت Similarweb، ژاپن سومین منبع بزرگ ترافیک در وب سایت اوپن ای آی به حساب می آید. سم آلتمن مدیر ارشد اجرایی شرکت در آوریل و قبل از اجلاس G۷ با فومیو کیشیدا نخست وزیر ژاپن درباره گسترش هوش مصنوعی ملاقات کرد.

اتحادیه اروپا که درحوزه قانونگذاری فناوری پیشرو است، یک نیروی ضربتی در خصوص چت جی پی تی ایجاد کرده و مشغول نوشتن نخستین قوانین ناظر بر هوش مصنوعی است.

چینی‌ها ۷۹ مدل زبان بزرگ هوش مصنوعی ساختند

چهارشنبه, ۱۰ خرداد ۱۴۰۲، ۰۲:۵۴ ب.ظ | ۰ نظر

طبق گزارش موسسات تحقیقاتی دولتی، سازمان‌های چینی ۷۹ مدل زبان بزرگ (LLM) را در سه سال گذشته در این کشور راه‌اندازی کرده اند.
به گزارش خبرگزاری صدا و سیما به نقل از رویترز، طبق گزارش موسسات تحقیقاتی دولتی، سازمان‌های چینی ۷۹ مدل زبان بزرگ (LLM) را در سه سال گذشته در این کشور راه‌اندازی کردند، زیرا تلاش‌ها برای توسعه الگوریتم‌های هوش مصنوعی (AI) دو برابر شده است.

براساس گزارشی که توسط مؤسسات تحقیقاتی وزارت علوم و فناوری چین تهیه شده، توسعه مدل زبان بزرگ که با استفاده از تکنیک‌های یادگیری عمیق روی مقادیر انبوه داده‌های متنی آموزش داده شده‌اند، در سال ۲۰۲۰ وارد فاز شتاب‌یافته شد.

طبق گزارش منتشر شده در روز یکشنبه، در سال ۲۰۲۰، سازمان‌های چینی ۲ مدل زبان بزرگ منتشر کردند، در مقایسه با ۱۱ زبان در آمریکا، اما در سال ۲۰۲۱ در مجموع ۳۰ مدل زبان بزرگ در هر کشور منتشر شد.

بر اساس ارقام گردآوری شده در این گزارش، که موسسه اطلاعات علمی و فنی چین از جمله نویسندگان مشترک آن هستند، در سال بعد، سازمان‌های آمریکایی در مجموع ۳۷ مدل زبان بزرگدر سال بعد منتشر کردند، در حالی که ۲۸ مورد در چین منتشر شد.

تاکنون، چین با ۱۹ مدرک مدل زبان بزرگ از آمریکا پیشی گرفته است.

بر اساس بیانیه مطبوعاتی که به طور خلاصه در این گزارش آمده: با بررسی توزیع مدل‌های زبان بزرگ منتشر شده در سراسر جهان، چین و آمریکا با اختلاف زیادی پیشتاز هستند و بیش از ۸۰ درصد از تعداد کل جهان را تشکیل می‌دهند. آمریکا از نظر تعداد مدل‌های زبان بزرگ همیشه رتبه اول را در جهان داشته است.

این گزارش زمانی منتشر می‌شود که صنعت هوش مصنوعی چین با چالش‌های مهمی مواجه است، زیرا کنترل‌های صادراتی تحت رهبری آمریکا، سازمان‌های چینی را از دسترسی به نیمه‌رسانا‌هایی که برای آموزش مدل زبان بزرگ استفاده می‌شوند، محدود می‌کند.

این گزارش ۷۹ مدل زبان بزرگ توسعه یافته در چین را مورد تجزیه و تحلیل قرار داد و اشاره کرد که در حالی که در حال حاضر ۱۴ استان و منطقه وجود دارد که چنین فناوری در آن‌ها توسعه یافته، پروژه‌های توسعه مشترک بین دانشگاه و صنعت ناکافی بود.

پس از اینکه چت‌جی‌پی‌تی منتشر شد، غول‌های فناوری چینی، از علی بابا گرفته تا شرکت نظارتی Sensetime و غول موتور جستجو Baidu، نسخه‌های خود از چت‌بات‌های مجهز به هوش مصنوعی و مدل‎های زبانی بزرگ مولد را راه‌اندازی کردند.

تهدید ­انتخابات ۲۰۲۴ آمریکا با هوش مصنوعی

چهارشنبه, ۱۰ خرداد ۱۴۰۲، ۰۲:۵۱ ب.ظ | ۰ نظر

هوش مصنوعی روز به روز در حال پیشرفت است و اکنون رونق این فناوری با انتخابات آمریکا و تبلیغات آن مصادف شده و همین موضوع نگرانی‌هایی را به همراه دارد.
به گزارش خبرگزاری صدا و سیما  به نقل از رویترز، هیلاری کلینتون در ویدئویی که در شبکه‌های اجتماعی منتشر شده، می‌گوید­: من ران دیسانتیس را بسیار دوست دارم. او همان مردی است که این کشور به آن نیاز دارد.

به رقابت‌های ریاست‌جمهوری آمریکا در سال ۲۰۲۴ خوش آمدید، جایی که واقعیت قابل درک است.

ویدئو‌های دیپ‌فیک از کلینتون و بایدن، (ویدئو‌های واقع گرایانه و در عین حال ساختگی ایجاد شده توسط الگوریتم‌های هوش مصنوعی) ­از جمله هزاران ویدئویی هستند که در شبکه‌های اجتماعی منتشر می‌شوند و واقعیت و داستان را در دنیای دو قطبی شده سیاست آمریکا ادغام می‌کنند.

براساس مصاحبه‌های رویترز با دو نفر، در حالی که چنین ویدئو‌هایی چندین سال است که وجود دارد، در سال گذشته توسط تعدادی ابزار جدید هوش مصنوعی مولد مانند Midjourney توسعه داده شده­که ساخت دیپ‌فیک‌های باورپذیر­را ارزان و آسان می‌کند. ده‌ها متخصص در زمینه‌هایی از جمله هوش مصنوعی، اطلاعات غلط برخط و فعالیت‌های سیاسی فعالیت می‌کنند.

دارل وست، کارشناس ارشد بروکینگز­گفت: تشخیص محتوای واقعی از جعلی برای رای دهندگان بسیار دشوار خواهد بود. ­شما فقط می‌توانید تصور کنید که چگونه حامیان ترامپ یا بایدن می‌توانند از این فناوری برای بد جلوه دادن حریف استفاده کنند. ممکن است مواردی وجود داشته باشد که درست قبل از انتخابات از بین برود و هیچ کس فرصتی برای حذف آن‌ها نداشته باشد.

آزا راسکین، یکی از بنیانگذاران مرکز فناوری انسانی، یک سازمان غیرانتفاعی که تاثیر فناوری بر جامعه را مطالعه می‌کند، گفت: ابزار‌هایی که می‌توانند دیپ‌فیک تولید کنند با حفاظ‌های کم یا ناقص برای جلوگیری از انتشار اطلاعات غلط کار می‌کنند، زیرا بخش فناوری درگیر مسابقه تسلیحاتی هوش مصنوعی است.

دونالد ترامپ، رئیس‌جمهور سابق آمریکا ­که با دیسانتیس و دیگران برای نامزدی جمهوری‌خواهان برای رویارویی با بایدن رقابت خواهد کرد، خود اوایل این ماه ویدئویی از اندرسون کوپر مجری شبکه سی‌ان‌ان را در شبکه اجتماعی‌اش Truth Social به اشتراک گذاشت.

کوپر در این فیلم می‌گوید: دونالد جی. ترامپ­رئیس‌جمهور آمریکا بود که در تالار شهر ریاست‌جمهوری ما را به یک احمق تبدیل کرد.

اگرچه کلمات با حرکت لب‌های او مطابقت ندارند، سی ان ان گفت که این ویدئو یک دیپ‌فیک است. یکی از نمایندگان ترامپ به درخواست اظهار نظر درباره این کلیپ که این هفته هنوز در صفحه توئیتر پسرش دونالد ترامپ بوده، واکنشی نداد.

در حالی که شبکه‌های اجتماعی مانند فیس‌بوک، توئیتر و یوتیوب تلاش‌هایی را برای ممنوع کردن و حذف دیپ‌فیک انجام داده‌اند، اثربخشی آن‌ها در نظارت بر چنین محتوایی متفاوت است.

طبق گفته DeepMedia، شرکتی که روی ابزار‌هایی برای شناسایی محتوای جعلی کار می‌کند، امسال سه برابر بیشتر ویدئو‌های دیپ‌فیک از همه نوع و هشت برابر تعداد دیپ‌فیک ‌های صوتی برخط در مقایسه با مدت زمان مشابه در سال ۲۰۲۲ ارسال شده است.

این شرکت تخمین می‌زند که در مجموع، در سال ۲۰۲۳ حدود ۵۰۰ هزار ویدئوی دیپ‌فیک و صوت­در شبکه‌های اجتماعی در سراسر جهان به اشتراک گذاشته خواهد شد. شبیه سازی صدایی که قبلا ۱۰ هزار­دلار هزینه داشت تا اواخر سال گذشته هزینه داشت، اکنون استارتاپ‌ها اینکار را با هزینه‌ای چند دلاری انجام می‌دهند.

به گفته افراد حاضر در مصاحبه، هیچ کس مطمئن نیست که جاده هوش مصنوعی مولد به کجا می‌رسد یا چگونه می‌توان به طور موثر در برابر قدرت آن برای اطلاعات غلط جمعی محافظت کرد.

مدیرعامل شرکت اوپن‌ ای آی ­که در ماه‌های اخیر با معرفی چت‌جی‌پی‌تی و مدل به روز شده GPT-۴ بازی را تغییر داده، خود با این مشکل دست و پنجه نرم می‌کند. سام آلتمن، ­مدیرعامل این شرکت­به کنگره آمریکا گفت:­یکپارچگی انتخابات یک منطقه قابل توجه و نگران کننده­است. او خواستار قانونمند شدن این حوزه است.

برخلاف برخی از استارتاپ‌های کوچکتر، این شرکت اقداماتی را برای محدود کردن استفاده از محصولات خود در سیاست انجام داده با این حال خلا‌های قانونی وجود دارد.

برای مثال، اوپن‌ ای آی می‌گوید که تولیدکننده تصویر DALL-E خود را از ایجاد شخصیت‌های عمومی منع می‌کند. زمانی که رویترز تلاش کرد تصاویری از ترامپ و بایدن ایجاد کند، این درخواست مسدود شد و پیامی ظاهر شد که ممکن است از خط‌مشی محتوای ما پیروی نکند. با این حال رویترز توانست تصاویری از حداقل دوازده سیاستمدار دیگر آمریکا، ­از جمله مایک پنس، معاون رئیس جمهور سابق­که او نیز در حال ارزیابی نامزدی کاخ سفید برای سال ۲۰۲۴ است، ایجاد کند.

اوپن‌ ای آی­ همچنین هرگونه استفاده مقیاسی از محصولات خود را برای اهداف سیاسی محدود می‌کند. به عنوان مثال، استفاده از هوش مصنوعی برای ارسال ایمیل‌های شخصی‌سازی شده انبوه به مخاطبان ممنوع است. این شرکت که توسط مایکروسافت حمایت می‌شود، در مصاحبه‌ای با رویترز سیاست‌های خود را توضیح داد، اما به درخواست‌های بیشتر برای اظهارنظر درباره شکاف‌های اجرایی در سیاست‌هایش، مانند مسدود کردن ایجاد تصویر از سیاستمداران­پاسخی نداد.

چندین استارتاپ کوچکتر، اما هیچ محدودیت صریحی برای محتوای سیاسی ندارند. هوش مصنوعی مولد Midjourney که سال گذشته راه اندازی شد، با ۱۶ میلیون کاربر در سرور رسمی دیسکورد (Discord)، بازیگر پیشرو در تصاویر تولید شده توسط هوش مصنوعی است. به گفته چهار محقق هوش مصنوعی، این سیستم که بسته به عواملی مانند کمیت و سرعت تصویر از رایگان تا ۶۰ دلار در ماه متغیر است، مورد علاقه طراحان و هنرمندان هوش مصنوعی است، زیرا توانایی آن در تولید تصاویر فوق واقعی از افراد مشهور و سیاستمداران است. این سیستم به درخواست برای این مقاله پاسخ نداد.

دیوید هولز، مدیر عامل شرکت دیسکورد اعلام کرد:­این شرکت احتمالا­قبل از انتخابات تغییراتی را برای مبارزه با اطلاعات نادرست ایجاد خواهد کرد. هولز اضافه کرد که Midjourney می‌خواهد روی یک راه‌حل صنعتی همکاری کند تا قابلیت ردیابی تصاویر تولید شده توسط هوش مصنوعی را با معادل دیجیتالی واترمارکینگ فراهم کند و مسدود کردن تصاویر نامزد‌های سیاسی را در نظر بگیرد.

حتی در حالی که صنعت با جلوگیری از سواستفاده دست و پنجه نرم می‌کند، برخی از بازیگران سیاسی خودشان به دنبال استفاده از قدرت هوش مصنوعی مولد برای ایجاد پویش‌هایی هستند.

تاکنون، تنها آگهی سیاسی پرمخاطب تولید شده توسط هوش مصنوعی در آمریکا، یکی از آگهی‌هایی بود که کمیته ملی جمهوری‌خواه در اواخر آوریل منتشر کرد. این تبلیغ ۳۰ ثانیه‌ای که­ کاملا­توسط هوش مصنوعی ساخته شده، از تصاویر جعلی برای شبیه سازی سناریوی فاجعه‌آمیز در صورت انتخاب مجدد بایدن استفاده کرد.

رویترز همه پویش­های ریاست جمهوری جمهوریخواهان را در مورد استفاده آن‌ها از هوش مصنوعی بررسی کرد. اکثر آن‌ها پاسخی ندادند، اگرچه تیم نیکی هیلی گفت که از این فناوری استفاده نمی‌کنند و کمپین پری جانسون نامزد لانگ‌شات بدون ارائه جزئیات بیشتر، اعلام کرد که از هوش مصنوعی برای "تولید کپی و تکرار" استفاده می‌کند.

پتانسیل هوش مصنوعی مولد برای تولید ایمیل‌های تبلیغاتی، پست‌ها و تبلیغات برای برخی از فعالان که احساس می‌کنند فناوری ارزان‌قیمت می‌تواند زمینه بازی را در انتخابات مساوی کند، غیرقابل مقاومت است. حتی در اعماق مناطق روستایی هیلزدیل، میشیگان، هوش مصنوعی در حال عرض اندام است.

جان اسمیت، رئیس جمهوری خواه منطقه پنجم کنگره میشیگان، چندین جلسه آموزشی برگزار می‌کند تا متحدانش بتوانند استفاده از هوش مصنوعی در شبکه‌های اجتماعی و تولید تبلیغات را یاد بگیرند. او گفت: هوش مصنوعی به ما کمک می‌کند در مقابل بازیگران بزرگ بازی کنیم. من بزرگترین رشد را در نژاد‌های محلی می‌بینم. کسی که ۶۵ سال سن دارد، کشاورز و کمیسر ناحیه است، می‌تواند به راحتی توسط یک فرد جوانتر با استفاده از این فناوری مورد سواستفاده قرار گیرد.

مشاوران سیاسی همچنین به دنبال مهار هوش مصنوعی هستند و مرز بین واقعی و غیر واقعی را بیشتر از هم می‌پاشند. ویل لانگ، بنیانگذار در مصاحبه‌ای گفت: Numinar Analytics، یک شرکت داده‌های سیاسی که بر مشتریان جمهوری خواه تمرکز دارد، آزمایش تولید محتوای هوش مصنوعی برای صدا و تصویر و همچنین تولید صدا را برای ایجاد پیام‌های شخصی سازی شده با صدای نامزد‌ها آغاز کرده است.

گروه راهبرد و نظرسنجی دموکراتیک و گروه راهبرد هونان در حال تلاش برای توسعه یک ربات نظرسنجی هوش مصنوعی است. بردلی هونان، مدیرعامل شرکت، با استناد به تحقیقاتی که نشان می‌دهد زنان و مردان احتمال بیشتری برای صحبت با یک مصاحبه‌کننده زن دارند، گفت: امیدوار است که یک ربات زن به موقع برای انتخابات شهرداری ۲۰۲۳ معرفی شود.

تهدید هوش مصنوعی برای سیستم‌های نظامی

سه شنبه, ۹ خرداد ۱۴۰۲، ۰۲:۵۱ ب.ظ | ۰ نظر

جاش لوسپینیو طی مصاحبه ای با خبرگزاری آسوشیتدپرس، به بررسی هوش مصنوعی و آسیب پذیری های نرم افزاری در سیستم های تسلیحاتی به عنوان تهدیدی برای ارتش آمریکا می پردازد.
اولین استارت آپ امنیت سایبری جاش لوسپینوسو در سال 2017 توسط ریتون/فورس پوینت (Raytheon/Forcepoint) خریداری شد. دومین استارتاپ او، شیفت 5 (Shift5) نیز با ارتش ایالات متحده، اپراتورهای راه آهن و خطوط هوایی از جمله جت بلو (JetBlue) کار می کند. کاپیتان 36 ساله سابق ارتش، فارغ التحصیل سال 2009 وست پوینت و محقق رودز، بیش از یک دهه را صرف نوشتن ابزارهای هک برای آژانس امنیت ملی و فرماندهی سایبری ایالات متحده کرده است.
لوسپینوسو اخیراً به یک کمیته فرعی خدمات مسلح سنا گفته است که چگونه هوش مصنوعی می تواند به حفاظت از عملیات نظامی کمک کند. او که مدیر عامل و برنامه نویس نیز می باشد، این موضوع را با آسوشیتدپرس و همچنین چگونگی آسیب پذیری های نرم افزاری در سیستم های تسلیحاتی به عنوان یک تهدید بزرگ برای ارتش ایالات متحده را مورد بحث قرار داده است. متن مصاحبه برای وضوح بیشتر و به علت طولانی بودن، ویرایش شده است.

 

سوال: در شهادت خود، دو تهدید اصلی را برای فناوری های مجهز به هوش مصنوعی توصیف کردید: یکی سرقت و مورد دیگر مسمومیت داده است. می توانید آن را توضیح دهید؟
پاسخ: یکی از راه‌های فکر کردن در مورد مسمومیت داده‌ها، اطلاعات نادرست دیجیتالی است. اگر دشمنان بتوانند داده‌هایی را ایجاد کنند که فناوری‌های مجهز به هوش مصنوعی می‌بینند، می‌توانند عمیقاً بر نحوه عملکرد آن فناوری تأثیر بگذارند.

 

سوال: آیا مسمومیت داده اتفاق می افتد؟
پاسخ: ما آن را به طور گسترده نمی بینیم. اما رخ داده است. یکی از شناخته شده ترین موارد در سال 2016 اتفاق افتاد. مایکروسافت یک ربات چت توییتری به نام تای (Tay) منتشر کرد که از مکالمات آنلاین خود، مطالب را می آموزد. کاربران مخرب توطئه کردند تا توئیت های توهین آمیز را به آن نشان دهند. تای شروع به تولید محتوای ملتهب کرده و در نتیجه مایکروسافت آن را آفلاین کرد.

 

سوال: هوش مصنوعی فقط یک ربات برای چت نیست؛ بلکه مدت طولانی است که در امنیت سایبری یکپارچه بوده است، درست است؟
پاسخ: هوش مصنوعی در فیلترهای ایمیل برای پرچم گذاری و جداسازی نامه های ناخواسته و فریب های فیشینگ استفاده می شود. مثال دیگر نقاط پایانی است، مانند برنامه آنتی ویروس در لپ تاپ شما و یا نرم افزار شناسایی بدافزار که در شبکه ها اجرا می شود. البته، هکرهای مهاجم نیز از هوش مصنوعی برای شکست دادن این سیستم های طبقه بندی استفاده می کنند که به آن هوش مصنوعی متخاصم می گویند.

 

سوال: بیایید در مورد سیستم های نرم افزاری نظامی صحبت کنیم. یک گزارش نگران کننده در سال 2018 از دفتر پاسخگویی دولت می گوید که تقریباً تمام سیستم های تسلیحاتی جدید توسعه یافته دارای آسیب پذیری های حیاتی هستند و پنتاگون به فکر قرار دادن هوش مصنوعی در چنین سیستم هایی است؟
پاسخ: در اینجا دو مسئله وجود دارد. اول، ما باید سیستم های تسلیحاتی موجود را به اندازه کافی ایمن کنیم. این یک کار فنی است که ما باید آن را انجام دهیم و پرداختن به آن زمان بسیار زیادی طول خواهد کشید. سپس مرز جدیدی برای ایمن سازی الگوریتم های هوش مصنوعی به وجود بیاوریم که به کمک چیزهای جدیدی که ما نصب می کنیم، انجام خواهد شد. گزارش دفتر پاسخگویی دولت واقعاً در مورد هوش مصنوعی صحبت نمی کند. پس یک لحظه هوش مصنوعی را فراموش کنید. اگر این سیستم ها به همان شکلی که هستند باقی بمانند، هنوز هم عمیقا آسیب پذیر هستند.
ما در حال بحث در مورد افزودن قابلیت‌های مبتنی بر هوش مصنوعی برای مواردی مانند بهبود تعمیر و نگهداری و هوش عملیاتی هستیم. همه اینها عالی هستند اما زیربنای کار ما سست است. بسیاری از سیستم ها ده ها سال قدمت دارند و مجهز به فناوری های دیجیتال هستند. هواپیما، وسایل نقلیه زمینی، دارایی های فضایی و زیردریایی ها، اکنون به هم پیوسته اند. ما در حال مبادله داده ها در داخل و خارج هستیم. سیستم ها پر از راه برای نفوذ هستند، به سختی ارتقا می یابند و ممکن است مورد حمله قرار گیرند. هنگامی که یک مهاجم به چنین دسترسی پیدا کند، بازی تمام می شود.
گاهی اوقات ساختن یک پلتفرم جدید آسان تر از طراحی مجدد اجزای دیجیتال سیستم های موجود است. اما هوش مصنوعی نقشی اساسی در ایمن سازی این سیستم ها دارد. اگر کسی بخواهد آنها را به خطر بیندازد، می‌توان از هوش مصنوعی برای دفاع استفاده کرد.

 

سوال: شما شهادت دادید که توقف تحقیقات هوش مصنوعی، همانطور که برخی تاکید کرده اند، ایده بدی خواهد بود زیرا به نفع چین و سایر رقبا خواهد بود. اما شما همچنین نگرانی هایی در مورد هجوم بی درنگ به سمت محصولات هوش مصنوعی دارید. چرا؟
پاسخ: من متنفرم که این موضوع سرنوشت‌ساز به نظر برسد، اما به نظر می‌رسد که اینجا اصطلاح «استفاده از سوختن» صدق می‌کند. محصولی که با عجله به بازار عرضه می شود اغلب آتش می گیرد (هک می شود، از کار می افتد، آسیب ناخواسته وارد می کند) و ما می گوییم، «ما باید امنیت ایجاد می کردیم.» من انتظار دارم سرعت توسعه هوش مصنوعی افزایش یابد و ممکن است به اندازه کافی مکث نکنیم تا این کار را به روشی ایمن و مسئولانه انجام دهیم. حداقل کاخ سفید و کنگره در حال بحث در مورد این موضوعات هستند.

 

سوال: به نظر می رسد گروهی از شرکت ها از جمله در بخش دفاعی، عجله دارند تا محصولات نیمه کاره هوش مصنوعی را معرفی کنند.
پاسخ: هر شرکت فناوری و بسیاری از شرکت‌های غیرفناوری تقریباً یک چرخش محکم و سخت به سمت هوش مصنوعی انجام داده‌اند. نابسامانی های اقتصادی در راه است. مدل های کسب و کار اساساً تغییر خواهند کرد. جابجایی ها در حال حاضر اتفاق می افتد یا در شرف وقوع هستند و رهبران کسب و کار نمی توانند به سرعت واکنش نشان دهند.

 

سوال: در مورد استفاده از هوش مصنوعی در تصمیم گیری های نظامی مانند هدف گیری چطور؟
پاسخ: من به طور قطع فکر نمی کنم که الگوریتم های هوش مصنوعی و داده هایی که ما جمع آوری می کنیم برای تصمیم گیری یک سیستم سلاح کشنده آماده هستند. ما با آن فاصله داریم.(منبع:سایبربان)

کتاب « هوش مصنوعی و قانون گذاری » توسط مرکز پژوهش های مجلس منتشر شد.

به گزارش روابط عمومی مرکز پژوهش‌های مجلس شورای اسلامی، کتاب هوش مصنوعی و قانونگذاری با طرح این سوال که آیا هوش مصنوعی می‌تواند به جای هوش طبیعی قانون وضع کند؟ عنوان کرده است که هوش مصنوعی و کاربردهای آن در سیاست‌گذاری و حکمرانی یکی از موضوعاتی است که در سال‌های اخیر توجه سیاست‌‌پژوهان و پژوهشگران حوزه حکمرانی و قانون‌گذاری را به خود جلب کرده است.

در همین راستا موضوع هوش مصنوعی در سیاست‌گذاری و امکان‌سنجی وضع قانون توسط هوش مصنوعی یکی از موضوعات مورد توجه مرکز پژوهش‌‌های مجلس در سال‌های اخیر بوده است.

مرکز پژوهش‌های مجلس چند سیاست فکرستانی، فکرپژوهی و فکرسازی را همراه به مفهوم‌ستانی، مفهوم‌پژوهی و مفهوم‌سازی اصیل در دستور کار قرارداد که هم موجبات ارتقای تفکر کانونی و آینده‌نگری قانون و قانون‌گذاری را فراهم کرد و هم زمینه‌ساز بهره‌مندی از منطق هوش مصنوعی شده است. این سیاست‌ها با دو رویکرده فکری و منطقی دنبال شدند تا با توجسه معقول پذیرش منطقی در جامعه هوشی داشته باشند.

هوش مصنوعی امری ذهنی و ذهن ساخته است که این واقعیت نه در ذهن بلکه در سرای فیزیک ساکن شده است. با این فرض هوش مصنوعی نه هوش ماشینی که صورت‌بندی متفاوت از هوش انسانی است. این هوش در شرایط پیچیده شیوه استدلالی هوش طبیعی را با واکنش‌های مشابه برای حل مسائل اساسی انسان برعهده گرفته است.

با این نگاه هوش مصنوعی با سازه و ساختاری متفاوت ایجاد شد و شکلی معقول پیدا کرد. یکی هوش مصنوعی با منطق صوری شروع شد و به تدریج به منطق مگاری، منطق موجهات، منطق ریاضی، منطق فازی، فازی شهودی و منطق نوتروسوفیک انجامید. دیگر روند ابزارسازی هوش طبیعی با چرتکه، ماشین حساب آغاز شد و با کامپیوتر به توسعه شگرف دست یافته است.

بااین همه در سیاست هوشی هیچ یک از این تلاش ها به تنهایی یا تجمیع آنها برای هوش طبیعی کافی نبود و این هوش به دنبال ساخت هوش مشابه هوش انسانی رفت که کارکرد هوشی بدون قابلیت‌های متعدد هوش انسانی داشته باشد. ذهن طبیعی با پویش‌های مستمر هوشی به‌تدریج به  توفیقی دست یافت که حتی برای خودش غیرمترقبه بود و به همین دلیل با نگرانی از قدرت و نفوذ این هوش، قانون هوش مصنوعی را وضع کرد که در چهارسوی این قانون وضعی عمل کند.

این پژوهش هوش پژوهانه با سه نگاه تاریخی، توصیفی و تبیینی دنبال شد. در هر سه عرصه دغدغه دراصلی این بود که مطالعات تاریخی امری لازم است که باید از آن توصیف واقع بینانه انجام شود و هیچ موقع از تبیین عقلانی و منطقی بازنماند که توجیه معقولی به دنبال ندارد.

هوش مصنوعی قابلیت‌های منحصر‌به‌فرد خود را دارد که برخوردار از منطق و زبان محاسباتی با حداقل اشتباه است، اما در هرحال تحت سیطره هوش طبیعی قرار دارد. از سوی دیگر محاسباتی که این هوش انجام می‌دهد فراتر از قابلیت‌های هوش مصنوعی است که می‌تواند برای ارتقای امر قانون‌گذاری و توسعه منطق قانون‌گذاری در کشور مفید باشد.

کتاب « هوش مصنوعی و قانون‌گذاری » شامل مجموعه گزارش‌های مرتبط با نقش هوش مصنوعی در سیاست‌گذاری و وضع قوانین است که از سال 95 تا 98 توسط مرکز پژوهش‌های مجلس تدوین شده است.    
این کتاب که با هدف ارتقای هوش تقنینی و تدبیر امورکشوداری منتشر شده، در چهارفصل به رشته تحریر درآمده: در فصل اول به تفکر عقلانی در بنیاد هوش مصنوعی اشاره شده، فصل دوم به موضوع طراحی، تحقیق و به‌کار‌گیری هوش مصنوعی پرداخته، فصل سوم با محوریت اصل قانون‌گذاری و حکمرانی هوش مصنوعی نگارش شده و در فصل چهارم، قانون‌گذاری و هوش مصنوعی در چند کشور مختلف مورد بررسی قرار گرفته است.

یک وکیل با استفاده از چت بات جی پی تی خلاصه حقوقی درباره یک پرونده ارائه کرده که مشخص شده این ابزار، محتوایی بی پایه و اساس را در اختیار وی قرار داده است.

به گزارش خبرگزاری مهر به نقل از انگجت، در ماه های اخیر تب هوش مصنوعی بالا گرفته و بسیاری بیم آن دارند که برنامه هایی مانند چت جی پی تی یک روز آنها را بیکار کنند. اکنون به نظر می رسد این کابوس برای یک وکیل نیویورکی زودتر از موعد به حقیقت می پیوندد.

براساس گزارش نشریه نیویورک تایمز، استیون شواترز از شرکت حقوقی لویدو و اوبرمن اخیرا برای نوشتن یک خلاصه دعوی از چت بات «اوپن ای آی» کمک گرفته و نتایج آن فاجعه بار بوده است.

شرکت شوارتز از جانب روبروتو ماتا از شرکت هوایی کلمبیایی «آویانکا» شکایت کرده است. ماتا ادعا می کند در پروازی به فرودگاه جان اف کندی در نیویورک مجروح شده است. هنگامیکه شرکت از قاضی دادگاه فدرال خواست تا این پرونده را رد کند، وکیل ماتا یک خلاصه ۱۰ صفحه ای ارائه کرد تا نشان دهد چرا این شکایت باید در دادگاه مطرح شود.

در اسناد به بیش از ۱۲ مورد رای دادگاه از جمله «وارگس علیه هواپیمایی جنوب چین»، «مارتینز علیه دلتا ایرلاینز» و «میلر علیه یونایتد ایرلاینز» اشاره شده بود که متاسفانه هیچ یک از افرادی که خلاصه را خواندند نتوانستند رای های دادگاه ذکر شده توسط وکلای ماتا را در آن بیابند زیرا چت جی پی تی تمام این پرونده ها را خود ساخته بود!

شوارتز در سوگندنامه ای در روز پنجشنبه گفت که از چت بات برای کمک به تحقیقاتش درباره پرونده استفاده کرده است. او نوشته بود از احتمال آنکه محتوای چت جی پی تی ممکن است اشتباه باشد، بی اطلاع بوده است. او حتی اسکرین شات هایی را به اشتراک گذاشت که نشان می داد وی از چت جی پی تی سوال کرده آیا پرونده های ذکر شده واقعی هستند یا خیر و نرم افزار پاسخ داده بود آنها واقعی هستند و رای های دادگاه در مخازن حقوقی معتبر از جمله «Westlaw» و «LexisNexis»وجود دارد.

شوارتز همچنین نوشته بود برای استفاده از چت جی پی تی بسیار متاسف است و در آینده هیچ وقت بدون تاییدیه کامل از صحت مطالب نرم فزار از آن استفاده نمی کند. هنوز مشخص نیست او فرصت دیگری برای نوشتن یک خلاصه حقوقی دارد یا خیر. قاضی ناظر بر پرونده این وکیل اعلام کرد جلسه استماع در ۸ ژوئن برگزار می شود تا احتمال تحریم هایی برای شرایط بی سابقه ای که اقدامات شوارتز به وجود آورده مورد بحث قرار گیرد.

یک منبع آگاه از محدود شده کارمندان بانک جی‌پی مورگان در استفاده از چت‌جی‌پی‌تی خبر داد.
به گزارش خبرگزاری صداوسیما به نقل از وال استریت ژورنال، به گفته یک منبع آگاه، بانک جی‌پی مورگان چیس (JPMorgan Chase & Co) استفاده کارمندانش از استفاده از چت‌جی‌پی‌تی را محدود می‌کند. این شخص گفت که بانک استفاده از چت بات محبوب هوش مصنوعی را به دلیل یک حادثه خاصی محدود نکرده است. نمی‌توان تعیین کرد که چند کارمند از این چت بات یا برای چه عملکرد‌هایی از آن استفاده می‌کنند.

چت‌جی‌پی‌تی از زمانی که معرفی شد، محبوبیت بسیاری پیدا کرده و چند روز پس از راه اندازی تعداد کاربران آن از یک میلیون عبور کرد. مردم از این فناوری برای خودکارسازی وظایف در محل کار و مدرسه استفاده کرده‌اند. این فناوری این سوال را در مورد اینکه چگونه هوش مصنوعی می‌تواند جایگزین برخی از مشاغل شود، ایجاد کرده است. با این حال، چت‌جی‌پی‌تی همیشه قابل اعتماد نیست، زیرا گاهی اوقات به درخواست‌ها با اطلاعات نادرست یا پاسخ‌های اشتباه پاسخ می‌دهد.

علاوه بر بانک جی‌پی مورگان، سازمان‌های دیگر نیز دسترسی به چت‌جی‌پی‌تی را مسدود کرده اند. هفته گذشته، ورایزن استفاده از این چت بات را در سیستم‌های شرکتی خود منع کرد و گفت که ممکن است مالکیت اطلاعات مشتری یا کد منبعی را که کارمندانش در چت‌جی‌پی‌تی تایپ کرده اند از دست بدهد. مدارس دولتی نیویورک در ماه ژانویه، این چت بات را از شبکه‌های اینترنتی و دستگاه‌های مدرسه ممنوع کردند.

کارمندان برخی از شرکت‌ها از چت‌جی‌پی‌تی برای نوشتن ایمیل‌ها و موضوعات تحقیقاتی استفاده می‌کنند. برخی از کارمندان می‌گویند: این فناوری به آن‌ها کمک می‌کند تا سریعتر کار کنند. در حالی که برخی دیگر در تلاش هستند تا با پیشرفت فناوری از عقب ماندن خود جلوگیری کنند.

برخی از شرکت‌های فناوری پس از انتشار چت‌جی‌پی‌تی، برای عرضه محصولات مشابه رقابت کردند. در اوایل این ماه، گوگل یک سرویس هوش مصنوعی مکالمه با نام Bard را در اختیار آزمایش کنندگان قرار داد. شرکت مایکروسافت که میلیارد‌ها دلار در اوپن‌ ای آی سرمایه گذاری کرده، موتور جستجوی ارتقا یافته Bing را با استفاده از فناوری چت‌جی‌پی‌تی معرفی کرد. کاربران گزارش دادند که این موتور جستجو به سوالات با پاسخ‌های گاهی نگران کننده پاسخ می‌دهد.

اوپن‌ ای آی که مالک چت‌جی‌پی‌تی است، در اوایل این ماه گفت که نسخه پولی این چت بات راه‌اندازی می‌کند که با پرداخت ۲۰ دلار در ماه در دسترس مشترکان قرار خواهد گرفت.

شرکت سازنده چت جی پی تی جوایزی به مبلغ ۱۰۰ هزار دلار به افرادی اعطا می کند که ایده هایی برای نظارت بر هوش مصنوعی ارائه دهند.
به گزارش خبرگزاری مهر به نقل از رویترز، شرکت اوپن ای آی سازنده چت بات چت جی پی تی، اعلام کرد ۱۰ جایزه به مبلغ ۱۰۰ هزار دلار (در کل یک میلیون دلار) برای آزمایش هایی در حوزه فرایندهای دموکراتیک پرداخت می کند تا چگونگی نظارت بر هوش مصنوعی و بررسی تبعیض و چالش های دیگر مشخص شود.

طبق یک پست وبلاگی در این خصوص، جوایز ۱۰۰ هزار دلاری به دریافت کنندگانی تعلق می گیرد که چهارچوبی متقاعد کننده برای پاسخ به سوالات مختلفی دارند مانند آنکه آیا هوش مصنوعی می تواند از شخصیت های عمومی انتقاد کند و یک فرد معمولی در جهان چه ویژگی هایی دارد.

منتقدان مدعی هستند سیستم های هوش مصنوعی مانند چت جی پی تی به دلیل داده های ورودی شان، دچار تبعیض هستند. کاربران نمونه هایی از پاسخ های نژاد پرستانه یا جنسیت زده نرم افزار هوش مصنوعی را نیز رصد کرده اند. در این میان نگرانی هایی مبنی بر آن وجود دارد که هوش مصنوعی در موتور جستجوهایی مانند گوگل و بینگ( متعلق به مایکروسافت) اطلاعات نادرست را به شیوه ای متقاعد کننده تولید کند.

اوپن ای آی در همین راستا یکی از پیشروان قانونگذاری برای هوش مصنوعی است. با این وجود اخیرا تهدید کرده بود به دلیل قوانین پیشنهادی سختگیرانه اتحادیه اروپا در این خصوص، در منطقه مذکور فعالیت نخواهد کرد.

سازنده چت جی‌پی‌تی اروپا را تهدید کرد

شنبه, ۶ خرداد ۱۴۰۲، ۰۴:۵۳ ب.ظ | ۰ نظر

سم آلتمن مدیر اوپن آ آی تهدید کرده در صورتیکه اتحادیه اروپا قوانین زیادی وضع کند، در این منطقه فعالیت نخواهدکرد.
به گزارش خبرگزاری مهر به نقل از رویترز، سم آلتمن مدیر ارشد اجرایی اوپن آ آی از قانونگذاران سراسر جهان خواسته قوانین جدیدی برای نظارت بر فناوری وضع کنند. وی همچنین تهدید کرده در صورتیکه اتحادیه اروپا قوانین زیادی وضع کند، در این منطقه فعالیت نخواهد کرد.

آلتمن هفته گذشته در سراسر اروپا سفر کرد و با سیاستمداران در فرانسه، اسپانیا، لهستان، آلمان و انگلیس ملاقات کرد تا درباره آینده هوش مصنوعی و پیشرفت چت جی پی تی گفتگو کند.

بیش از ۶ ماه پس از آنکه اوپن آ آی «چت بات چت جی پی تی» را در جهان عرضه کرد، بیم ها درباره پتانسیل های آن به هیجان و هشدارهایی منجر شده و اختلافاتی میان قانونگذاران ایجاد کرده است.

اما آلتمن هفته گذشته به بروکسل، مکانی که رگولاتورها مشغول کار روی قانون هوش مصنوعی اتحادیه اروپا هستند، سفر نکرد. به گفته دو منبع آگاه آلتمن ملاقات برنامه ریزی شده در بروکسل را لغو کرده است. اوپن آ آی به درخواست ها برای اظهار نظر پاسخی نداده است.

آلتمن در لندن گفت: پیش نویس فعلی قانون هوش مصنوعی اتحادیه اروپا ممکن است بیش از حد باشد، اما ما شنیده ایم که احتمالا از آن عقب نشینی می کنند.

قانونگذاران اتحادیه اروپا مسئولیت شکل دهی قانون هوش مصنوعی هستند.دراگوس تودوراچه یکی از اعضای رومانیایی پارلمان اتحادیه اروپا که در تهیه پیش نویس قوانین اتحادیه اروپا پیشرو است، در این باره می گوید: به نظر من قوانین در آینده نزدیک کاهش نمی یابند. با این وجود ما خوشحال می شویم آلتمن را به پارلمان دعوت کنیم تا او بتواند نگرانی هایش از افکار قانونگذاران اتحادیه اروپا درباره این موضوعات را بیان کند.

از سوی دیگر تیری برتون کمیسر امورداخلی بازارهای اروپا از تهدید آلتمن انتقاد و اعلام کرد درباره پیش نویس قوانین نمی توان مذاکره کرد.

کیم وان اسپارنتاک عضو پارلمان اتحادیه اروپا از هلند نیز که روی پیش نویس قانون اتحادیه اروپا فعالیت می کند، گفت او وهمکارانش معتقدند نباید به شرکت های آمریکایی اجازه دهند از آنها اخاذی کنند.

او در ادامه افزود: اگر اوپن آ آی نتواند از الزامات اولیه نظارت بر داده، شفافیت، ایمن و امنیت اطلاعات پیروی کند، بنابراین سیستم های‌ آنها برای بازار اروپا مناسب نیست.

سردار «اسلامی» تشکیل کارگروه رصد، بررسی، تحلیل و مقابله با آسیب‌های فناوری‌های نوین و سایبری و به ویژه هوش مصنوعی را یک ضرورت دفاعی امنیتی برای کشور برشمرد.
سردار سرتیپ دوم پاسدار «ابوالفضل اسلامی» مدیرکل حفظ آثار و نشر ارزش‌های دفاع مقدس استان البرز در گفت‌وگو با خبرنگار دفاع‌پرس از البرز، تشکیل کارگروه یا سازمان شناسایی و مقابله با آسیب‌های هوش مصنوعی را یک ضرورت دفاعی، امنیتی برشمرد و اظهار داشت: برای مقابله با فتنه‌های نوین دشمن باید به ابزار‌ها و فناوری‌های روز دنیا اشراف داشته باشیم و برای مقابله با آن به سرعت و با دقت برنامه ریزی کنیم.

وی با اشاره به اینکه نباید درباره فناوری‌های نوین، چون متاورس، هوش مصنوعی و ... منفعلانه عمل کنیم، تصریح کرد: سرعت تولید و رشد دانش و فناوری در جهان امروز به شدت بالاست و اگر در این عرصه به سرعت عمل نکنیم به کشور ضربه وارد خواهد شد.

مدیرکل حفظ آثار و نشر ارزش‌های دفاع مقدس استان البرز با تاکید بر اینکه در مواجهه با شبکه‌ها و پیام رسان‌های اجتماعی و مدیریت فضای مجازی با اندکی تاخیر در کشور اقدام کردیم، افزود: در مواجهه با هوش مصنوعی تاخیر جایز نیست و به جای رویکرد منفعلانه، باید فعالانه نسبت به بومی سازی این فناوری در کشور اقدام شود.

وی همچنین خواستار اطلاع رسانی فوری و گسترده در جهت آسیب‌های این فناوری و امکان سوء استفاده از آن سخن گفت و تصریح کرد: با استفاده از هوش مصنوعی به ویژه پس از فراگیر شدن فناوری چت جی پی تی به راحتی می‌توان نسبت به شبیه سازی صدا و تصویر افراد اقدام کرد و این مسأله می‌تواند در جعل اخبار، دروغ پردازی و وارونه جلوه دادن حقایق بسیار موثر باشد.

 سردار اسلامی با بیان اینکه هوش مصنوعی می‌تواند میلیون‌ها کامت و محتوای رسانه‌ای در فضای مجازی منتشر کند، عنوان کرد: دشمنان از این ابزار و ربات‌های مجازی در اغتشاشات سال گذشته به شکل گسترده‌ای سوءاستفاده کرد. پیش از بروز یک فتنه یا اغتشاش جدید باید نسبت به آسیب‌های هوش مصنوعی در جامعه اطلاع رسانی شود تا دشمن به راحتی امکان سوء استفاده از این فناوری را نداشته باشد.

نیمه پنهان هوش مصنوعی

جمعه, ۵ خرداد ۱۴۰۲، ۰۴:۳۱ ب.ظ | ۰ نظر

مروری بر شاخص‌ترین نگرانی‌های کارشناسان در مورد توسعه سریع و شتاب‌زده هوش مصنوعی و تهدیدات بالقوه این فناوری، نشان می دهد که عواقب این فناوری اعتماد، اخلاق و دموکراسی را نشانه می گیرد.

به گزارش خبرنگار مهر، در بحبوحه شهرت و محبوبیت جهانی هوش مصنوعی مولد و رشد چشمگیر کاربران «ChatGPT»، در ماه فوریه ۲۰۲۳ بازوی تحقیقاتی وزارت دفاع ایالات متحده آمریکا اعلامیه‌ای منتشر کرد که براساس آن «یک ربات هوش مصنوعی با موفقیت یک جنگنده «F16» را در آسمان کالیفرنیای جنوبی به پرواز درآورد. این خبر توجه نسبتاً کمی را به خود جلب کرده و حقیقتی را فاش کرد که در هیاهوی موضوعات مربوط به هوش مصنوعی مولد گم شده است. رقابت بر سر توسعه هوش مصنوعی محدود به حوزه‌های فناوری، تجاری و بوروکراتیک نمی‌شود و حوزه مهم نظامی را هم در بر می‌گیرد. برخی نگرانی‌ها حاکی از آن است که رقابت شدید کشورها بر سر هوش مصنوعی احتمالاً به حوزه نظامی هم کشیده شده و جهان را در معرض مخاطراتی مانند جنگ سرد یا حتی جنگ جهانی قرار خواهد داد.

سوال مهمی که ممکن است برای هر شخص دغدغه‌مندی پیش بیاید این است که این فناوری جدید چه هشدارهایی را در بطن قابلیت‌های شگفت‌انگیز خود برای جهان انسان‌ها دارد؟

 

نگرانی‌های بسیار در یکی از بسترهای تولد هوش مصنوعی مولد

اخیراً بسیاری از شهروندان آمریکایی پس از ادعاهایی درمورد سوگیری و حمایت «ChatGPT» از دموکرات‌ها و عقاید آن‌ها احساس نگرانی می‌کنند. جمهوری‌خواهان در پاسخ به این ادعا چت‌بات مدافع جناح راست را وارد عرصه سیاست کردند. سازندگان مرورگر «TUSK»، چت‌باتی عرضه کرده‌اند که با دیدگاه محافظه‌کاران آمریکایی همسو است. این هوش مصنوعی مولد که «Gipper» نامیده می‌شود، عملکردی مشابه «ChatGPT» دارد، با این تفاوت که به نحوی کدگذاری شده که بتواند مانند یک محافظه‌کار عمل کند. تمامی این اتفاقات موید این موضوع است که هوش مصنوعی مولد که هم اکنون به منبع اطلاعات برای بسیاری تبدیل شده می‌تواند مواضع گروهی را ترویج کرده و موضع‌گیری‌های خاص خود را داشته باشد. این ابزار فناورانه قابلیت این را دارد که در حوزه رسانه به جنگ عقیده‌های مخالف سازندگان آن رفته و بجای منبع اطلاعات نسبتاً بی‌طرف، به خدمتگزار منافع سیاسی سرمایه‌گذاران و سازندگان آن تبدیل شود.

چندی پیش، جین ایسترلی، مدیر آژانس امنیت سایبری و امنیت زیر ساخت ایالات متحده آمریکا (CISA)، هشدار داد که هوش مصنوعی ممکن است به‌صورت توأمان، «قدرتمندترین قابلیت زمان ما» و «قوی‌ترین سلاح زمان ما» باشد.

ایسترلی معتقد است که مزایای هوش مصنوعی نیز همراه با تهدیداتی جدی است. ایسترلی تأکید کرد که هوش مصنوعی با تمام مزایایش ارزش به خطر انداختن امنیت را ندارد و باید تابع مقررات باشد.

او همچنین افزود: «درحالی‌که یک نفر از قابلیت‌های «ChatGPT» برای برگزاری یک مهمانی استفاده کرده فرد دیگری از قابلیت‌های آن برای برنامه‌ریزی یک حمله سایبری یا تروریستی استفاده می‌کند.»

یکی دیگر از نگرانی‌هایی که آمریکایی‌ها در مورد هوش مصنوعی دارند، امکان تأثیرگذاری آن در انتخابات ریاست‌جمهوری ۲۰۲۴ این کشور است. پیت ریتکس سناتور جمهوری‌خواه آمریکایی هشدار داد که چین می‌تواند با استفاده از هوش مصنوعی، نقش عمده‌ای در انتخابات ۲۰۲۴ ایفا کند. او در جلسه کمیته روابط خارجی سنا در مورداستفاده از هوش مصنوعی برای ایجاد تصاویر و ویدئوها جعلی مشابه افراد هشدار داد و راه‌حل این‌گونه بحران‌های احتمالی را آموزش مردم در حوزه رسانه و تقویت تفکر انتقادی دانست.

 

هوش مصنوعی اخلاق دارد؟

دانشمندانی که در سال‌های اخیر، تمامی هم خود را بر توسعه هوش مصنوعی گذاشته‌اند، بیشتر در پی ایجاد مخلوقی با توانایی‌های فکری انسان بوده‌اند؛ اما مسئله این است که انسان علاوه بر قدرت تفکر، وجدان هم دارد که باعث تلازم او به اخلاق می‌شود. ربات‌های مولدی مانند «ChatGPT» هنگام پاسخگویی بر مبنای کلان‌داده‌ها قائل به خوب و بد پاسخ‌های خود هستند؟ تعریفی از اخلاق دارند؟ در حال حاضر پاسخ این سؤال‌ها، منفی است.

طراحی سیستم‌های هوش مصنوعی اخلاق‌مدار با اصول اخلاقی مشترک بین انسان‌ها کار بسیار دشواری خواهد بود. کارشناسان اخلاق نگرانی‌هایی دارند که در صورت تلاش برای اخلاق‌مدار کردن هوش مصنوعی مولد زبانی، نظام‌های اخلاقی چه کسانی باید اعمال شوند؟ چه کسانی این تصمیم را می‌گیرند؟ چه کسی مسئول نظارت بر اخلاق‌مدار بودن هوش مصنوعی خواهد بود؟ چه کسی باید این نظام‌های اخلاقی را پس از تدوین، اجرا کند؟

واقعیت این است که رقابت ژئوپلیتیک و اقتصادی، محرک اصلی توسعه‌دهندگانی هوش مصنوعی است، درحالی‌که نگرانی‌های اخلاقی در جایگاه دوم قرار می‌گیرد. برخی از کارشناسان معتقدند که توسعه‌دهندگان هوش مصنوعی و ابزارهای مرتبط با آن در حالت خوش‌بینانه انگیزه کمی برای طراحی نظام‌های اخلاق‌مدار داشته و در حالت بدبینانه هیچ دغدغه‌ای ندارند!

بعضی دیگر نیز معتقدند تا وقتی مبنای تصمیمات هوش مصنوعی غیرقابل‌تشخیص باشد نمی‌توان مضرات هوش مصنوعی را شناسایی کرده و راه‌حل مناسبی برای آن یافت. باتوجه‌به اینکه پایگاه‌های داده‌های هوش مصنوعی در سیستم فعلی موجود است و مشکلات اخلاقی بسیار نظام حال حاضر، نمی‌توان انتظار معجزه و اهمیت‌دادن به اخلاق از این هوش مصنوعی داشت.

هوش مصنوعی مانند تمامی ابزارها می‌تواند برای «خوب یا بد» استفاده شود و بشر و سازندگان در نهایت کارکرد اصلی آن را مشخص می‌کنند. در نهایت هوش مصنوعی امتدادی از خودمان خواهد بود و تا جایی که بتوانیم و بخواهیم جامعه‌ای اخلاقی‌تر بسازیم هوش مصنوعی اخلاقی‌تری خواهیم داشت در غیر این صورت هوش مصنوعی پیامدهای بی‌اخلاقی بشر را با ذره‌بین قدرتمند خود چند برابر کرده و سر راه انسان قرار می‌دهد.

 

دست‌کاری ذهن انسان و نابودی دموکراسی

کارشناسان و محققان سر این مسئله که هوش مصنوعی نحوه کار و زندگی ما را تغییر خواهد داد اجماع دارند. همه تغییرات میزانی از ریسک را دارد، اما مقدار و طیف این ریسک بسیار مهم است. برخی معتقدند هوش مصنوعی می‌تواند تا جایی پیش برود که ذهن انسان را دستکاری کند.

بدبینانه‌ترین شکل ماجرا به‌دست‌آوردن قدرت و نابودی جهان است؛ اما حالت خوش‌بینانه آن ایجاد تصاویر نادرست، ویدئوهای نادرست است که در نهایت منجر به نابودی اعتماد می‌شود.

انسان در مواردی نمی‌تواند مطمئن باشد فلان سیاستمدار واقعاً این حرف را زده یا صدا و تصویر و متن و ویدئو ساخته هوش مصنوعی است. جسیکا سیسیل رئیس سابق دفتر بی‌بی‌سی و مؤسس «Trusted News Initiative» که با اطلاعات نادرست مبارزه می‌کند در مصاحبه با پرایم تایم گفت: «دموکراسی متکی بر این است که‌رای دهندگان بتوانند به اطلاعات واقعی دسترسی داشته و طبق بررسی و تحلیل ذهن خود آن را باور کرده یا نکنند و سپس گفتگویی مشترک پیرامون حقایق مورد توافق داشته باشند.» به‌عبارت‌دیگر هوش مصنوعی با ایجاد اطلاعات نادرست اعتماد مردم را از بین می‌برد و بدون اینکه افراد بدانند اطلاعاتی واقعی است یا نه نمی‌توانند بر اساس آن به فردی که واقعاً مدنظر آن‌هاست رأی دهند.

 

خالق هوش مصنوعی هشدار می‌دهد!

جفری هینتون که اخیراً از سمت خود به‌عنوان معاون مهندسی گوگل استعفا داد تا زنگ خطرات هوش مصنوعی را به صدا در آورد، در مصاحبه‌ای که اخیراً از او منتشر شد هشدار داد که جهان باید راهی برای کنترل این فناوری درحال‌توسعه پیدا کند!

«پدرخوانده هوش مصنوعی»، در گفته‌های خود ضمن تأکید بر تأثیرات مثبت هوش مصنوعی در پزشکی، علم مواد، پیش‌بینی زلزله و سیل و…، معتقد است که تمام این فواید اگر باعث پیشی‌گرفتن هوش مصنوعی بر بشر شود، نه‌تنها بی‌فایده که ویرانگر خواهد بود.

هینتون همچنین معتقد است بسیاری از همکاران وی که از باهوش‌ترند مانند او نگران هستند. هینتون خاطرنشان کرد که باتوجه به مدل‌هایی مانند «Chat GPT»، هوش مصنوعی ممکن است کارها را کارآمدتر از مغز انسان انجام دهد. او معتقد است که نمی‌توان مطمئن بود که اهداف هوش مصنوعی به نفع انسان و هم راستا با منافع او باشد.

او همچنین تأکید کرد که «ممکن است هیچ راهی برای جلوگیری از یک پایان بد نباشد؛ اما واضح است که انسان‌های باهوش و متخصص قادرند راهی برای مقابله با این چالش بیابند؛ اما این اتفاق باید قبل از اینکه هوش مصنوعی خیلی باهوش شود بیفتد!»

 

داعیه‌داران هوش مصنوعی

اگر داعیه‌داران هوش مصنوعی مولد را صاحبان شرکت‌های فناوری مانند «OpenAI»، شرکت توسعه‌دهنده «ChatGPT»، بدانیم، باتوجه به سابقه عملکرد آن‌ها در حوزه‌های دیگر می‌توان تشخیص داد که اولویت این شرکت‌ها منافع اقتصادی و رقابت با سایر شرکت‌هاست.

جهان در حال حاضر با بسیاری از مشکلات فناوری‌هایی که این قبیل شرکت‌ها توسعه داده‌اند؛ مانند نقض حریم شخصی کاربران، انتشار اخبار جعلی و اطلاعات نادرست و ارائه محتوای نامناسب به کودکان و نوجوانان، در فضای مجازی دست‌وپنجه نرم می‌کند و پر واضح است که مدیریت این شرکت‌ها آینده هوش مصنوعی و انسان را به مقصدی نامعلوم، با چالش‌هایی به‌مراتب بزرگ‌تر می‌برد.

اما اگر داعیه‌داران هوش مصنوعی را دولت‌هایی بدانیم که بستر شرکت‌های فناوری هستند می‌توانیم باتوجه به عملکرد سابق آن‌ها که مبتنی بر در نظر نگرفتن منافع کشورهای غیر همسو و در برخی از موارد همسو با آنان است، این احتمال را بدهیم که از این ابزار جهت افزایش سلطه خود بر سایر ملت‌ها و دولت‌ها و زیرسؤال‌بردن حاکمیت آن‌ها استفاده کنند.

نبرد مایکروسافت با گوگل در هوش مصنوعی

جمعه, ۵ خرداد ۱۴۰۲، ۰۳:۲۴ ب.ظ | ۰ نظر

مایکروسافت چت‌جی‌پی‌تی و بینگ را برای راه اندازی محصول گسترده هوش مصنوعی تقویت می‌کند.
به گزارش فارس به نقل از رویترز، شرکت مایکروسافت روز سه‌شنبه شروع به ارائه مجموعه‌ای از به‌روزرسانی‌های هوش مصنوعی، از جمله در چت‌جی‌پی‌تی، موتور جستجوی خود بینگ و همچنین سرویس‌های ابری در اختیار کاربران کرد. این شرکت با این کارها به دنبال کاهش فاصله با گوگل است.

از جمله تغییرات کلیدی، انتقال به خط نتایج جستجو از بینگ به چت‌جی‌پی‌تی است که پاسخ‌های آن در ابتدا محدود به اطلاعات از سال 2021 بود.

این شرکت در کنفرانس سالانه مایکروسافت بیلد اعلام کرد اکنون چت‌جی‌پی‌تی می تواند از نتایج وب بینگ برای مشترکین پولی استفاده کند و این کار را به زودی برای کاربران رایگان انجام خواهد داد.

مایکروسافت همچنین در حال گسترش به اصطلاح پلاگین ها برای بینگ است و با استفاده از استانداردی که توسط شرکت اپن‌ای‌آی پذیرفته شده، به کسب و کارها اجازه می دهد راحت تر با مصرف کنندگان در موتور جستجو معامله کنند.

یوسف مهدی، مدیر ارشد بازاریابی مایکروسافت، گفت:« برای مثال، یکی از این ابزارها به کسی که به دنبال ایده های شام با دستور غذا و مواد اولیه است کمک می کند تا با یک کلیک از Instacart سفارش بدهد.»

او در مصاحبه ای گفت: «این تغییری عمیق در نحوه استفاده مردم از وب است.»

مهدی در پاسخ به این سوال که آیا مایکروسافت می‌تواند آگهی‌های مربوط به پلاگین‌ها را بفروشد، گفت که این شرکت به آن نقطه نرسیده است، اما مدل نحوه جذب مشتریان در حال تغییر است.

به‌روزرسانی‌های بینگ بخشی از تلاش مایکروسافت برای تصاحب بیش از 286 میلیارد دلار بازار برای تبلیغات جستجو در سراسر جهان است.

گوگل نیز مانند مایکروسافت اخیراً ارتقاء هوش مصنوعی مولد را برای موتور جستجوی خود به نمایش گذاشته است که از داده‌های گذشته یاد می‌گیرد چگونه به سؤالات باز پاسخ دهد.

هنوز مشخص نیست که مصرف‌کنندگان موتور جستجوی به‌روز شده کدام را ترجیح می‌دهند، زیرا گوگل هنوز تغییرات خود را به طور گسترده ارائه نکرده است. با این حال، رقیب مستقل آن برای چت‌جی‌پی‌تی، یک ربات گفت و گو با نام بارد در حال حاضر شامل پاسخ هایی است که از نتایج جستجوی گوگل به دست می آید.

پیش از این بیل گیتس، یکی از بنیانگذاران مایکروسافت، اعلام کرده بود که هوش مصنوعی به قدری عمیق خواهد بود که رفتار کاربر را به شدت تغییر می‌دهد به‌طوری که دیگر سراغ موتور جستجو یا بازدید آمازون نرود.

دفتر رئیس جمهور فرانسه اعلام کرد او با سام آلتمن، مدیرعامل اوپن ای آی ملاقات خواهد کرد تا درباره جایگاه این شکور و اروپا در زمینه هوش مصنوعی (AI) صحبت کند.
به گزارش خبرگزاری صداوسیما به نقل از رویترز، دفتر امانوئل مکرون، رئیس جمهور فرانسه اعلام کرد او با سام آلتمن، تاجر سیلیکون، ولی که با چت‌جی‌پی‌تی به شهرت رسید، ملاقات خواهد کرد تا درباره جایگاه فرانسه و اروپا در رقابت جهانی برای هوش مصنوعی (AI) صحبت کند.

آلتمن، مدیر اجرایی اوپن‌ای آی که اخیراً به کنگره  آمریکا گفت: وقتی از خطر بالقوه هوش مصنوعی پرسیده شد، همه چیز ممکن است بسیار اشتباه پیش برود. هوش مصنوعی یکی از برجسته‌ترین سیستم‌های دنیای فناوری است که از دولت‌ها می‌خواهد تا به سرعت قوانینی را وضع کنند. هوش مصنوعی با مسئولیت پذیری استفاده می‌شود.

او در حال حاضر در سفری به برخی از پایتخت‌های اروپایی برای گفتگو با رهبران سیاسی است.

مکرون که مدافع سرسخت فرانسه به عنوان یک «ملت استارتاپ» بوده، دولت خود را موظف کرده تا شرایط سرمایه‌گذاری جذابی را برای کارآفرینان فناوری، از باتری‌های خودرو‌های الکترونیکی گرفته تا ارز‌های دیجیتال، فراهم کند. او در اولین سال ریاست جمهوری خود، متعهد شد که برای جلوگیری از عقب افتادن فرانسه و اروپا از غول‌های چینی و آمریکایی در زمینه فناوری‌های جدید قدرتمند مبارزه خواهد کرد.

پنج سال بعد، هیچ شرکت اروپایی در میان پیشتازان در زمینه هوش مصنوعی مولد که عمدتا توسط شرکت‌های آمریکایی از جمله اوپن‌ ای آی هستند، پیشگام نبود.

اتحادیه اروپا اما اکنون در خط مقدم پیش‌نویس قوانین جدید هوش مصنوعی است که می‌تواند معیاری جهانی برای رفع نگرانی‌های مربوط به حریم خصوصی و ایمنی مرتبط با این فناوری باشد.

الیزه اعلام کرد: آلتمن و مکرون همچنین درباره گام‌های بعدی در سفر او و مسائل اصلی آینده از جمله مقررات بحث خواهند کرد. آن‌ها در مورد مسائل مربوط به مقررات هوش مصنوعی بحث خواهند کرد که به تطبیق الزامات اخلاقی و حفاظت از کاربران و دموکراسی با پیگیری نوآوری در این بخش اجازه می‌دهد.

ماری-لور دنیس، رئیس سازمان نظارت بر حفاظت از داده‌های فرانسه (CNIL) روز سه شنبه در یک کنفرانس خبری گفت: چشم انداز موسسه او کاهش نوآوری نیست، بلکه همراهی با آن است.

در اوایل این ماه، مکرون از ایلان ماسک، بنیانگذار و مدیر عامل شرکت تسلا که در حوزه هوش مصنوعی نیز فعال است، دعوت کرد.

نگرانی کاخ سفید از خطرات هوش مصنوعی

چهارشنبه, ۳ خرداد ۱۴۰۲، ۰۶:۳۱ ب.ظ | ۰ نظر

کاخ سفید یک جلسه استماع با کارگران برگزار میکند تا تجربیات آنها از فرایند به کارگیری فناوری های خودکار توسط کارفرمایان شان برای نظارت، رصد و ارزیابی را دریابد.
به گزارش سایبربان و به نقل از خبرگزاری رویترز، در جلسه ای که کاخ سفید برگزار خواهد کرد ،علاوه بر کارگران، متخصصان فناوری، محققان و سیاستگذاران نیز شرکت خواهند کرد.

میلیونها کاربر از برنامه ها و ابزارهای هوش مصنوعی (AI) استفاده کرده اند که به گفته طرفداران، این فناوری میتواند در تشخیص های پزشکی، نوشتن فیلمنامه، ایجاد اسناد توجیهی و از بین بردن باگهای نرم افزاری به کاربران کمک نماید.از آن طرف نیز نگرانیهایی در مورد نقض حریم خصوصی، تصمیمات استخدامی نادرست و کلاهبرداری های متعدد و پخش اخبار جعلی وجود دارد.

دولت آمریکا به عنوان بخشی از ارزیابی این فناوری گام هایی جدیدی برداشته است: از جمله آپدیت یک نقشه راه جدید برای سرمایه گذاری در تحقیقات هوش مصنوعی، درخواست نظر مردم درباره ریسک های هوش مصنوعی همراه گزارش هایی جدید از وزارت آموزش درباره آنکه هوش مصنوعی چطور روی آموزش، یادگیری و تحقیق تاثیر میگذارد.

جلسه استماع و اقدامات جدید پس از جلسه ای برگزار میشود که رئیس جمهور جو بایدن در ماه جاری میلادی با مدیران ارشد شرکت های برتر هوش مصنوعی از جمله مایکروسافت و گوگل آلفابت برگزار کرد.
محور این جلسه نیاز به شفافیت شرکت ها در خصوص سیستم های هوش مصنوعی و اهمیت ارزیابی ایمنی هر محصول بود.
کاخ سفید قبلا اعلام کرده بود که رئیس جمهور جو بایدن نیز از این فناوری استفاده و آن را آزمایش نموده است.

مدت کوتاهی پس از اینکه بایدن اعلام کرد در انتخابات ریاست جمهوری آمریکا دوباره شرکت خواهد کرد، کمیته ملی جمهوری خواهان ویدیویی را تهیه کرد که در آن ،آمریکا تبدیل به یک کشور ویران در دوره دوم ریاست جمهوری بایدن شده است، که این ویدئو کاملا با تصاویر هوش مصنوعی ساخته شده بود.

انتظار میرود با گسترش فناوری هوش مصنوعی، چنین تبلیغات سیاسی نیز رواج پیدا کند.

سقوط ناگهانی بیت‌کوین تنها با یک عکس!

سه شنبه, ۲ خرداد ۱۴۰۲، ۰۳:۵۸ ب.ظ | ۰ نظر

بیت‌کوین، بزرگترین دارایی ارز دیجیتال جهان بر اساس ارزش بازار، پس از انتشار تصویری که انفجاری جعلی را در نزدیکی پنتاگون نشان می‌دهد و احتمالا با هوش مصنوعی (AI) ایجاد شده و در فضای مجازی منتشر شده است، سقوطی ناگهانی را تجربه کرد.

به گزارش ایسنا این تصویر هشداردهنده که ابرهای عظیم از دود تیره در نزدیکی ساختمان نمادین که به‌ عنوان مقر وزارت دفاع ایالات‌متحده (DOD) عمل می‌کند را نشان می‌دهد، به‌ طور گسترده توسط حساب‌های کاربری متعدد در سایت میکروبلاگینگ توییتر پخش شد.

از جمله کسانی که این تصویر را منتشر کردند، حساب توییتر رسانه دولتی روسیه، راشاتودی بود که بیش از سه میلیون دنبال کننده دارد. این تصویر همچنین توسط یک حساب کاربری تایید شده توییتر به نام BloombergFeed به اشتراک گذاشته شده است.

راشاتودی، توییت خود را که حاوی عکس مذکور بود حذف کرد در حالی که توییتر حساب BloombergFeed را تعلیق کرد.

اوایل روز دوشنبه تصویری که ظاهرا توسط هوش مصنوعی تولید شده بود انفجاری ساختگی را در نزدیکی پنتاگون ایالات‌متحده نشان داد. این خبر توسط رسانه دولتی روسیه، راشاتودی در توییتر به اشتراک گذاشته شد که به انتشار آن کمک کرد.

این تصویر ظاهرا حملات ۱۱ سپتامبر را به مردم یادآوری کرد و اعتماد سرمایه‌گذاران را تحت تاثیر قرار داد زیرا باعث فروش وحشتناک فوری همچنین زیان بیش از هفت درصدی داوجونز و افت ۴.۵ درصدی در بازگشت سرمایه بین‌المللی مورگان استنلی (MSCI) شد.

این تصویر که اداره آتش‌نشانی شهرستان آرلینگتون، جعلی بودن آن را چند دقیقه پس از انتشار آنلاین تایید کرد، تاثیر گسترده‌ای بر بازار سهام و ارزهای دیجیتال نداشت.

حساب توییتر رسمی آتش‌نشانی آرلینگتون و خدمات پزشکی اضطراری (EMS) تصریح کرد: «هیچ انفجار یا حادثه‌ای در یا نزدیک منطقه پنتاگون رخ نداده است و هیچ خطر یا خطر فوری برای مردم وجود ندارد».

این عکس حدود ساعت ۱۰ و ۶ دقیقه صبح روز دوشنبه به وقت شرقی در توییتر پخش شد و تنها چهار دقیقه بعد، در ساعت ۱۰ و ۱۰ دقیقه صبح، بازارها واکنش نشان دادند و شاهد روند نزولی بودند.

شاخص‌های سهام ایالات‌متحده آسیب جزئی را متحمل شدند اما پس از تایید مقامات مبنی بر جعلی بودن آن، به سرعت بهبود یافتند.

بیت‌کوین، اولین دارایی رمزنگاری جهان نیز دچار سقوط ناگهانی شد و با انتشار این عکس به ۲۶ هزار و ۵۰۰ دلار کاهش یافت با این حال، اولین ارز دیجیتال به سرعت افزایش یافت و چند دقیقه بعد به ۲۶ هزار و ۸۸۲ دلار معامله شد.

در حالی که تایید نشده است که تصویر منتشر شده با استفاده از ابزارهای هوش مصنوعی ایجاد شده است یا خیر اما دارای علائم بارز تصاویر تولید شده توسط هوش مصنوعی است.

تشدید نبرد چین و آمریکا در هوش مصنوعی

يكشنبه, ۳۱ ارديبهشت ۱۴۰۲، ۰۴:۱۴ ب.ظ | ۰ نظر

فناوری‌های جدید و نوآورانه مانند هوش مصنوعی اکنون به بستر مهمی برای رقابت سرسختانه میان چین و آمریکا تبدیل شده اند و در این مسیر، آمریکا با سلاح تحریم و چین با بومی سازی سعی در پیروزی دارد.

به گزارش خبرنگار مهر، رونمایی اخیر پکن و واشنگتن از طرح‌های عظیم سرمایه‌گذاری زیرساختی، مقدمه‌ای است برای تشدید روند رقابت بین ایالات متحده آمریکا و جمهوری خلق چین. این سرمایه‌گذاری‌های کلان همچنین شواهدی هستند بر تلاش این دو کشور برای خروج از شرایط اقتصادی چالش‌برانگیز. موفقیت هر کدام از آن‌ها موجب اثبات برتری نظام سیاسی اقتصادی و مقدمه‌ای بر تعمیق نفوذ جهانی این دو کشور در دهه‌های آینده است.

یکی از حوزه‌های مهمی که به بستری برای رقابت دو قدرت بزرگ تبدیل شده، فناوری‌های جدید و نوآورانه مانند هوش مصنوعی است. پیشرفت‌های سریع هوش مصنوعی‌های مولد مانند «ChatGPT» و برتری در آن‌ها به عقیده برخی کارشناسان باعث برتری اقتصادی و ژئوپلیتیک خواهد شد و در تعیین ابرقدرت قرن بیست و یکم بسیار مؤثر است. پکن برنامه‌های وسیعی برای استفاده از توانمندی‌های بالقوه این فناوری پر سود دارد و واشنگتن نیز در تلاش است تا از هوش مصنوعی در برنامه‌های زیرساختی آینده خود استفاده کند اما بیشتر تمرکز سرمایه‌گذاری خود را بر روی حوزه‌های فراگیر گذاشته و به نسبت چین اهمیت کمتری به حوزه هوش مصنوعی می‌دهد.

برخی از کارشناسان معتقدند که رقابت بر سر فناوری هوش مصنوعی به تشدید تنش بین آمریکا و چین منجر شده. به گفته تحلیل‌گران این رقابت سناریویی مشترک با جنگ سرد و رقابت‌های تسلیحاتی دارد. در ظاهر چت‌بات‌هایی مانند «ChatGPT» ممکن است شباهت زیادی با سلاح‌های خودمختار نداشته باشند؛ اما آن‌ها بر اساس ایده‌ای مشابه ساخته شده‌اند و این دلیل اهمیت استراتژیک آن‌هاست. به گفته جو وانگ مدیر ارشد سیاست خارجی در پروژه مطالعات رقابتی ویژه، «ChatGPT» قادر است روند انتشار تبلیغات متقاعدکننده در مقیاس گسترده و در خارج کشور را سهولت بخشد که این خود می‌تواند شروع بالقوه درگیری‌های بسیاری باشد.

 

چین؛ از خودکفایی در هوش مصنوعی تا نفوذ در اقتصاد

چین به نسبت ایالات متحده سرمایه‌گذاری بیشتری در حوزه هوش مصنوعی کرده و در صدد پیشرفت حداکثری این فناوری با تمرکز بر رفع خطرات و نقایص احتمالی برآمده است. به عقیده کارشناسان، یکی از اهداف مهم حزب کمونیست چین توسعه و پیشرفت هوش مصنوعی و در نتیجه تسریع رشد و توسعه اقتصادی است. بر اساس گزارش دانشگاه استنفورد، چین از نظر «سرزندگی هوش مصنوعی» در بین دو کشور اول جهان قرار دارد و یک‌سوم مقالات دانشگاهی این زمینه را تولید کرده و یک‌پنجم سرمایه خصوصی جهانی را برای توسعه آن جذب کرده است. طبق پیش‌بینی‌های مک‌کینزی، هوش مصنوعی می‌تواند تا سال ۲۰۳۰ حدود ۶۰۰ میلیارد دلار به اقتصاد چین اضافه کند که ۳۳۵ میلیارد دلارش را صنعت رانندگی خودران رقم خواهد زد.

اولین اقدام چین در رقابت با آمریکا ممنوعیت دسترسی به خدمات «ChatGPT» است و دولت بایدن در مقابل محدودیت‌ها و تحریم‌هایی را بر صادرات فناوری‌های مرتبط با هوش مصنوعی به چین تشدید کرده است. مدتی پس از معرفی نسخه چهارم «ChatGPT» غول موتور جستجوی چینی «Baidu» با یک چت‌بات هوش مصنوعی به نام «Erine Bot» وارد عمل شد. هر چند که این چت‌بات هنوز درحال‌توسعه است و امکانات آن کامل نشده و در دسترس عموم قرار ندارد؛ اما در رویداد معرفی، چت‌بات در درک زبان چینی، تولید محتوا و محاسبات ریاضی عملکردی مشابه «ChatGPT» داشت. شرکت بایدو در سال‌های اخیر تمرکز خود را به سمت هوش مصنوعی از جمله چت‌بات، رانندگی خودکار و سایر برنامه‌های کاربردی هوش مصنوعی تغییر داده است. علی‌رغم اینکه چت‌بات چینی رویداد معرفی فوق‌العاده‌ای نداشت، باتوجه‌به تکیه دولت چین بر خوداتکایی در فناوری، چین بازار خانگی پرجمعیت و مناسبی به نسبت ایالات متحده برای «Ernie BOT» دارد.

چین همچنین در حال تقویت قابلیت‌های هوشمند زیرساخت‌های حمل‌ونقل و جاده‌ای و سیستم ترافیک است. در خط راه‌آهن نیز چین با افزودن هوش مصنوعی به سیستم مدیریت، امکان عملکرد بهینه، تصادفات کمتر و صرفه‌جویی در مصرف برق را تا ۳۰ درصد فراهم کرده است.

 

آمریکا؛ وقتی امنیت با هوش مصنوعی گره می‌خورد

ایالات متحده نیز در این رقابت بیکار ننشسته، هوش مصنوعی به طور فزاینده‌ای با استراتژی ژئوپلیتیک ایالات متحده آمیخته شده است. پیشرفت چت‌بات‌هایی مثل «ChatGPT» می‌تواند در مقیاس بزرگ در سیاست‌های رسانه‌ای، انواع جدید حملات سایبری و رشد اقتصادی اثرگذار باشد. نکته‌ای که باعث توجه دوچندان دولت‌ها از جمله آمریکا به این‌گونه هوش مصنوعی‌های مولد شده، دسترسی عموم مردم به «ChatGPT» و «Bing» است.

جیک سالیوان، مشاور امنیت ملی دولت بایدن، تأکید کرده است که قابلیت‌های هوش مصنوعی اهمیت بسیاری برای کاخ سفید دارد. وی همچنین افزود: «برای ایالات متحده کافی نیست که در زمینه هوش مصنوعی از سایر کشورها جلوتر باشد، بلکه باید تا حد ممکن پیشتاز باشد.»
همکاری اخیر بین «Remark Holding» (هلدینگ حوزه هوش مصنوعی) و یکی از اپراتورهای قطار ایالت فلوریدا در پروژه استفاده از هوش مصنوعی برای جلوگیری از اختلال در شبکه ریلی «Brightline» شاهدی بر تلاش‌های آمریکا در این حوزه است. ایالات متحده در حال حاضر تمرکز خود را بر استقرار هوش مصنوعی در حوزه انرژی گذاشته و این اقدامات پیشرفت‌های بسیاری در زمینه‌های باتری‌سازی و مدیریت شبکه‌های برق رقم زده است.

این تلاش‌ها، موید درک رهبران ایالات متحده، باتوجه‌به افزایش تقاضا در حوزه‌های اینترنت اشیا و خودروهای الکترونیکی و همچنین چالش‌های مربوط به حوزه انرژی‌های تجدیدپذیر، از نقش هوش مصنوعی در امنیت شبکه است. استفاده از هوش مصنوعی برای مدیریت توزیع و پایداری جریان برق یکی دیگر از اولویت‌های آمریکاست. این روش، آزمایشش را سابقاً در چین پس داده و قادر است تنها در سه ثانیه مشکل قطعی برق را حل کند. علاوه بر این دولت بایدن سال گذشته بودجه پنج‌ساله ۸۱ میلیارددلاری را برای اجرای «قانون تراشه و علم» باهدف بازگرداندن تولید این محصول استراتژیک به آمریکا که کاربرد بسیاری در توسعه هوش مصنوعی دارد، در نظر گرفته است. افزایش بودجه یاد شده جهت حفظ برتری فناورانه آمریکا در مقابله با رقبای این کشور که در رأس آن‌ها کشور چین قرار دارد، صورت‌گرفته است. مسئله هوش مصنوعی برای آمریکا صرفاً فناوری و تجاری نیست.

به‌عبارت‌دیگر واشنگتن توسعه فناوری هوش مصنوعی و پیشی‌گرفتن از کشور چین در این حوزه را مسئله‌ای امنیتی دانسته و با تمرکز و حساسیت در این حوزه مدعی است که در پی حفظ امنیت ملی خود است.

پکن با اولویت‌دادن به هوش مصنوعی و سایر نوآوری‌های آینده‌نگر در برنامه‌های سرمایه‌گذاری خود، قصد دارد پایه‌های محکمی برای موفقیت خود در آینده که با منافع جهانی ایالات متحده در تضاد خواهد بود، ایجاد کند.

 

پایین کشیدن رقیب بجای بالارفتن...

دولت بایدن اخیراً اعلام کرده که در حال تدوین یک دستور اجرایی به‌منظور دورنگه داشتن سرمایه‌گذاری‌های بخش‌های مختلف فناوری مانند (نیمه‌هادی‌ها و محاسبات کوانتومی) و هوش مصنوعی از کشور چین است. در پی این اقدام چین آمریکا را به دنبال کردن «منافع خودخواهانه» به‌وسیله «اجبار اقتصادی» متهم کرد و هشدار داد که در مقابل این‌گونه اقدامات و «قلدری‌ها» که در تضاد با اصول اقتصاد بازار و رقابت منصفانه است، تماماً می‌ایستد.

سخنگوی وزارت امور خارجه چین در نشستی اخیراً ایالات متحده را به استفاده از تجارت به‌عنوان «ابزار و سلاحی به نام امنیت ملی» متهم کرد. واضح است که هر تلاشی از سوی کشورهای «G۷» برای ممانعت از سرمایه‌گذاری در فناوری‌های پیشرفته در چین باعث افزایش تنش‌های میان شی‌جی‌پینگ و جو بایدن می‌شود و ممکن است روابط همه‌جانبه دو کشور را دستخوش تقابل‌های مخاطره‌آمیز کند. این اقدام دولت بایدن، بخشی از تلاش‌های گسترده‌تری برای حفظ برتری تکنولوژیک آمریکا و حفاظت از منافع امنیت ملی است. بااین‌حال کارشناسان هشدار می‌دهند: «این اقدامات می‌تواند نتیجه عکس داده و باعث واگذاری قدرت به چین شده و یا به توسعه «دموکراتیک» هوش مصنوعی آسیب برساند. بهتر است ایالات متحده انرژی خود را صرف پیشرفت خود در حوزه هوش مصنوعی کرده تا اینکه از رشد رقیب جلوگیری کند.»

 

به‌کارگرفتن نیروهای ملی برای پیروزی در رقابت فناورانه

چین با وجود راهبرد واشنگتن مبنی بر مهار و کنترل فناوری چینی همه تلاش خود را در جهت مقابله و شکست آمریکا در حوزه فناوری به کار بسته است. به عقیده کارشناسان چین باتکیه بر تمامی منابع دولتی و بخش خصوصی و صرف مبالغ هنگفت برای تحقیق و توسعه، در حال مقابله با تشدید تحریم‌های ایالات متحده در حوزه‌های فناوری و محدودیت‌گذاری‌های سرمایه‌گذاری است و کلید موفقیت در این رقابت را خودکفایی در حوزه فناوری می‌داند. برای مثال دولت چین در سال ۲۰۲۲ چیزی حدود ۱۲ میلیارد یوان معادل ۱.۷۵ میلیارد دلار بودجه به صنعت نیمه‌هادی که یکی از صنایع پیش‌نیاز توسعه هوش مصنوعی محسوب می‌شود، اختصاص داده است.

بر اساس گمانه‌زنی‌ها این اقدام در جهت مقابله با تحریم‌های روزافزون ایالات متحده در صنعت تراشه است. کشور چین علاوه بر کمک به شرکت‌های بزرگ با درنظرگرفتن وام و تسهیلات برای شرکت‌های کوچک غیر بورسی تمام تلاش خود را در این رقابت به کار گرفته است.

پکن در پی تحریم‌های واشنگتن و جلوگیری از ورود تراشه‌های جدید به چین، این کشور را به سمت مطالعات بر روی توسعه هوش مصنوعی به‌وسیله تراشه‌های قدیمی سوق داده است. یکی دیگر از اقدامات چین در راستای خودکفایی در صنعت تراشه که پایه توسعه هوش مصنوعی و بسیاری از فناوری‌های جدید دیگر است، اختصاص بودجه به استان‌های مختلف با عنوان صندوق نیمه‌هادی است. فاز اول فعالیت این صندوق از زمان تأسیس در سال ۲۰۲۱ به ۳۱ میلیارد یوان رسیده و تاکنون در توسعه ۱۰۲ شرکت، سرمایه‌گذاری کرده تا به تسریع روند رشد فناوری در کشور یاد شده کمک کند.

حقیقت این است که رقابت چین و آمریکا به طور مداوم در حال گسترش به حوزه‌های گوناگون است. نبرد تجاری ترامپ با دولت چین و تعرفه‌گذاری دولت آمریکا بر محصولات تجاری این کشور، در طول زمان اندک اندک به حوزه حکمرانی پلتفرمی و محدودیت تیک‌تاک کشیده شد و سپس به حوزه فناوری تولید تراشه و هوش مصنوعی تسری یافت.

هوش مصنوعی در مقطع فعلی به حدی با معادلات بین‌الملل در آمیخته است که حتی سیاست‌مدارانی چون هنری کیسینجر، وزیر امور خارجه سابق ۹۹ ساله ایالات‌متحده آمریکا را نیز به اظهار نظر در مورد این فناوری واداشته است. وی سال گذشته طی سخنرانی در جریان یک اجلاس، از دولت‌های چین و آمریکا خواست تا مذاکره درباره اعمال برخی محدودیت‌های در این زمینه را آغاز کنند، زیرا بدون وجود برخی موانع و محدودیت‌ها، این روند به یک مسابقه دیوانه‌وار فناورانه برای تحقق یک فاجعه ختم می‌شود!

حقیقت این است که هنوز هیچ سقف و محدودیتی برای توان بالقوه هوش مصنوعی مشخص نشده است. در این میان، دیگر کشورهای جهان نیز با ارزیابی تهدیدات توسعه این فناوری از سوی دو قدرت بزرگ جهانی، تمرکز خود را بر توسعه هوش مصنوعی معطوف کرده‌اند. به عنوان مثال، ولادیمیر پوتین، رئیس جمهور روسیه، طی یک سخنرانی در سال ۲۰۱۷، در جمع دانشجویان گفت: «کسی که در این زمینه رهبر شود، حاکم جهان خواهد بود.»

علت ممنوعیت ChatGPT برای کارمندان اپل

يكشنبه, ۳۱ ارديبهشت ۱۴۰۲، ۰۴:۱۲ ب.ظ | ۰ نظر

اپل برای جلوگیری از نشت داده های محرمانه اش استفاده از چت جی پی تی توسط کارمندانش را محدود کرد.

به گزارش خبرگزاری مهر به نقل از انگجت، اپل به محافظه کاری درباره پروژه هایش و همچنین انتظار رازداری از کارمندانش مشهور است.

اکنون طبق گزارشی از نشریه وال استریت ژورنال شرکت فناوری مذکور نگران است با استفاده کارمندان از چت جی پی تی، داده های مالکیتی آن فاش شود. برای جلوگیری از این روند اپل به طور خاص استفاده از چت جی پی تی و دیگر ابزارهای هوش مصنوعی مانند Copilot (متعلق به شرکت گیت هاب که می تواند به طور خودکار رمز را تکمیل کند) را محدود کرده است.

از سوی دیگر گزارشها حاکی از آن است که اپل مشغول توسعه مدل های زبانی بزرگ مخصوص خود نیز است.

در اوایل آوریل ۲۰۲۳ میلادی نشریه «اکونومیست کره» در گزارشی نوشت ۳ کارمند یک شرکت تولیدکننده موبایل و دستگاه های الکترونیکی کره ای اطلاعات محرمانه را با چت جی پی تی به اشتراک گذاشته اند. ظاهرا یکی از کارمندان از چت بات خواسته بود مخزن کد منبع را برای وجود اشتباهات جستجو کند و کارمند دیگر خواستار بهبود کدها شده بود. کارمند سوم نیز یک جلسه ضبط شده را در چت بات آپلود کرده و از آن خواسته بود صورت جلسه را بنویسد.

هنوز مشخص نیست اپل چگونه استفاده از ابزارهای هوش مصنوعی مولد را محدود یا به طور کامل ممنوع می کند.

برای یک شرکت مرموز مانند اپل محدودیت استفاده از هوش مصنوعی تعجب برانگیز به نظر نمی رسد. از سوی دیگر اوپن آ آی سری تنظیمات کنترل حریم خصوصی جدیدی در آوریل ارائه کرده که به کاربران امکان می دهد تاریخچه چت خود را کنترل کنند تا محاورات آنها برای آموزش استفاده نشود.

در حال حاضر اطلاعات اندکی درباره پروژه های مدل های زبانی بزرگ وجود دارد.

توافق رهبران G۷ برای حکمرانی هوش مصنوعی

شنبه, ۳۰ ارديبهشت ۱۴۰۲، ۰۴:۵۹ ب.ظ | ۰ نظر

رهبران کشورهای گروه ۷ درباره نیاز به حکمرانی منطبق با ارزش ها در زمینه هوش مصنوعی مولد توافق کردند.
به گزارش خبرگزاری مهر به نقل از بلومبرگ، همچنین آنها بر نگرانی درباره پتانسیل مخرب فناوری های با سرعت در حال گسترش توافق کردند.

رهبران در بیانیه مشترک اجلاس G۷ اعلام کردند دولت ها تصمیم دارند در اقدامی موسوم به «فرایند هیروشیما» مذاکراتی در سطح کابینه درباره این مشکل انجام دهند و نتایج آن را تا پایان سال اعلام کنند.

فومیو کیشیدا، نخست وزیر ژاپن برای تضمین انسان محور و ایمن بودن هوش مصنوعی مولد، خواهان همکاری برای ایجاد یک جریان داده ایمن و برون مرزی و تعهد به کمک مالی به چنین اقدامی شد.

ژاپن به عنوان مدیر در سال جاری خواهان پشتیبانی برای استفاده عمومی و صنعتی هوش مصنوعی و همزمان نظارت بر ریسک های آن شد. نخست وزیر این کشور گفت: بسیار مهم است که با پتانسیل ها و ریسک ها به درستی برخورد کنیم.

هر چند کشورهای عضو این اجلاس درباره شیوه قانونمندسازی هوش مصنوعی با یکدیگر متفاوت عمل می کنند اما رهبران آن درباره ایجاد یک انجمن به نام « فرایند هوش مصنوعی هیروشیما»تا پایان سال توافق کردند تا درباره موضوعات هوش مصنوعی مانند حقوق کپی رایت و اخبار جعلی بحث کنند.

پس از آنکه چت جی پی تی شرکت «اوپن آ آی» رقابتی را میان شرکت ها ایجاد کرد تا فناوری را سریع تر توسعه دهند، درخواست هایی برای وضع مقرراتی که منعکس کننده نظرات رهبران صنعتی و دولت های سراسر جهان باشد، مطرح شد.

دولت ها بیم آن دارند که توسعه این فناوری که می تواند متونی مانند نوشته انسان و عکس و ویدئو بسازد، اگر بدون کنترل انجام شود، به گسترش یک ابزار قدرتمند برای تولید اخبار جعلی و اختلال سیاسی منجر می شود. سم آلتمن مدیر ارشد اجرایی اوپن آ آی نیز به همراه مدیر حریم خصوصی شرکت «بیزینس ماشین» از سناتورهای آمریکایی خواستند قوانین هوش مصنوعی بیشتری وضع کنند.

سازمان جهانی بهداشت نیز به طور جداگانه در بیانیه ای اعلام کرد استفاده از استفاده سریع از هوش مصنوعی به خطر خطاهای پزشکی را همراه دارد و احتمالاً اعتماد به این فناوری را از بین می‌برد و پذیرش آن را به تأخیر می‌اندازد.

ریشی سوناک نخست وزیر انگلیس نیز خواهان ایجاد سیاستی برای مدیریت ریسک و مزایای هوش مصنوعی شد و آلتمن و دیگران را به انگلیس دعوت کرد. در این میان اتحادیه اروپا در قانونمندسازی ابزارهای هوش مصنوعی یک گام به جلو برداشته و از شرکت ها خواسته تا تضمین کنند به کاربران اطلاع داده شود چه زمان با هوش مصنوعی ارتباط برقرار کرده اند و از این فناوری برای شناسایی افراد در اماکن عمومی استفاده نشود.

از سوی دیگر دولت ژاپن تمایل به نظارت بر هوش مصنوعی با دستورالعملی آسانگیرانه تر از قوانین اتحادیه اروپا دارد.

ChatGPT جایگزین رادیولوژیست‌ها می‌شود؟

شنبه, ۳۰ ارديبهشت ۱۴۰۲، ۰۳:۵۸ ب.ظ | ۰ نظر

پژوهشگران بیمارستان تورنتو در کانادا با آزمایش بر روی هوش مصنوعی ChatGPT دریافتند این چت بات میتواند به عنوان رادیولوژیست عمل نماید.
به گزارش سایبربان، پژوهشگران ،با آزمایش بر روی مدل هوش مصنوعی چت جی پی تی (ChatGPT)دریافتند که عملکرد آن قابل قبول میباشد اما برخی از اظهارات بدست آمده، غیرمنطقی و نادرست بنظر می‌رسد و هنوز آماده جایگزینی با رادیولوژیست‌ها نیست.
این چت‌بات در یک آزمون ۱۵۰ سوالی که توسط گروه‌های رادیولوژی در کانادا و ایالات متحده طراحی شده بود، ۸۱ درصد امتیاز کسب نمود که بسیار بالاتر از حداقل درصد قبولی(۷۰ درصد) بود.
با افزایش استفاده از چت جی پی تی (ChatGPT )در بخش‌های مختلف، پژوهشگران دانشگاه پزشکی تصویربرداری تورنتو نیز به این فکر افتادند که زمان آن رسیده است که توانایی‌های این چت‌بات را در رادیولوژی نیز آزمایش کنند.
پژوهشگران یک آزمون ۱۵۰ سوالی برای  چت جی پی تی (ChatGPT ) طراحی کردند، دقیقاً مانند آنچه که گروه‌های رادیولوژی در کانادا و ایالات متحده برای دانشجویان این رشته انجام می‌دهند. از آنجایی که این ربات هوش مصنوعی نمی‌تواند تصاویر را به عنوان ورودی پردازش کند، پژوهشگران فقط متن در سوالات قرار دادند که شامل سوالات پایه و مفهومی و سوالات تخصصی بود.
راجش بایانا، رادیولوژیست و سرپرست فناوری در بیمارستان تورنتو گفت: در ابتدا از پاسخ‌های دقیق و مطمئن چت جی پی تی (ChatGPT ) به برخی سؤالات چالش‌ برانگیز در مورد رادیولوژی حیرت زده شدیم، اما سپس به همان اندازه از اظهارات غیرمنطقی و نادرست آن به برخی دیگر از سوالات متعجب شدیم.

هوش مصنوعی این پتانسیل را دارد که به رادیولوژیست ها در کارشان کمک کند، اما بعید است که در آینده نزدیک جایگزین آنها شود. الگوریتم‌های هوش مصنوعی را می‌توان برای تجزیه و تحلیل تصاویر پزشکی و شناسایی ناهنجاری‌ها آموزش داد، که بتواند به رادیولوژیست‌ها در شناسایی سریع‌تر و دقیق‌تر مشکلات کمک کند. با این حال، تفسیر تصاویر پزشکی و انتخاب گزینه های درمانی مناسب نیاز به دانش و تخصص پزشکی بالایی دارد که به بهترین وجه توسط رادیولوژیست انسانی ارائه میشود.

توجه به این نکته مهم است که هوش مصنوعی باید به عنوان ابزاری برای تقویت کار رادیولوژیست ها به جای جایگزینی آنها استفاده شود. هوش مصنوعی می تواند به رادیولوژیست ها کمک کند تا در کار خود کارآمدتر و دقیق تر باشند، اما نمی تواند جایگزین قضاوت پزشکی و مهارت های تصمیم گیری یک رادیولوژیست آموزش دیده شود.

خالق ChatGPT در سنای آمریکا: مقررات وضع کنید

چهارشنبه, ۲۷ ارديبهشت ۱۴۰۲، ۰۲:۰۵ ب.ظ | ۰ نظر

«سم آلتمن» مدیر شرکت «اوپن ای‌آی» (Open AI) روز سه‌شنبه با حضور در یک کمیته فرعی قضایی در مجلس سنای آمریکا به منظور بررسی مخاطرات فناوری‌ نوین هوش مصنوعی، از قانونگذاران این کشور خواست که فناوری هوش مصنوعی را با مقررات خاصی نظام‌مند کنند.

به گزارش گروه علم و آموزش ایرنا ، آلتمن در آغاز سخنان خود گفت: ما بر این گمان هستیم که مداخلات قانونگذارانه و تنظیم‌کننده دولت‌ها برای کاهش خطرات مدل‌هایی که روز به روز قدرتمندتر می‌شوند حیاتی خواهد بود.

حضور آلتمن در سنای آمریکا در حالی است که ابزار «بات گفت‌وگوی» شرکت او موسوم به «چت‌جی‌پی‌تی» (ChatGPT) سر و صدای زیادی به پا کرده و موجب تشدید رقابت‌های حوزه فناوری در زمینه هوش مصنوعی شده است؛ برخی از قانونگذاران آمریکایی و مقامات کشورهای مختلف در خصوص خطرات ناشی از این فناوری ابراز نگرانی کرده‌اند.

بررسی مخاطرات هوش مصنوعی در جلسه سنای آمریکا با مدیر «اوپن ای‌آی»

«چت جی‌پی‌تی» و سایر برنامه‌های مشابه می‌توانند پاسخ‌های بسیار شبیه پاسخ‌های انسانی به پرسش‌های مختلف ارائه کنند که البته هنوز ممکن است تا حد زیادی نادرست باشند. آلتمن 38 ساله به نوعی به سخنگوی این صنعت نوظهور تبدیل شده است. او ابایی از پرداختن به مسائل اخلاقی مرتبط با هوش مصنوعی نداشته و خواستار قانونگذاری بیشتر در این زمینه شده است.

وی از سویی گفت که اهمیت این فناوری جدید می‌تواند به بزرگی و اهمیت ظهور «صنعت چاپ» بوده و نویدبخش آغاز عصر تولیدات جدید باشد، اما از سوی دیگر بر وجود خطرات بالقوه مرتبط با آن اذعان کرد.

آلتمن تاکید کرد: من واقعا بر این باور هستم که اعمال قواعد و مقرراتی در این زمینه کار عاقلانه‌ای است. مردم باید بدانند کجا با هوش مصنوعی سر و کار دارند و آیا محتوایی که در دسترس آنها قرار دارد، ممکن است با هوش مصنوعی تهیه شده باشد یا خیر.

در حالی که در چند ماه گذشته چندین مدل هوش مصنوعی وارد بازار شده‌اند، آلتمن خاطرنشان کرد که یک سازمان جدید باید برای ارائه پروانه کار شرکت‌های هوش مصنوعی تشکیل شود.

وی خاطرنشان کرد که چنین سازمانی باید مسئول تضمین تبعیت شرکت‌ها از معیارهای اخلاقی و پرداختن به نگرانی‌های مربوط به «صحت مطالب» مرتبط با فناوری هوش مصنوعی باشد.

 

صدای جعلی یک سناتور ، نمودی از خطرات هوش مصنوعی

سناتور «ریچارد بلومنتال» جلسه استماع روز سه‌شنبه را با پخش صدای ضبط شده جعلی از خودش آغاز کرد و با این کار ریسک‌ها و خطرات بالقوه ناشی از این فناوری را مورد تاکید قرار داد.

این صدای ضبط شده با استفاده از سخنرانی‌های واقعی بلومنتال در صحن سنا و یک متن نوشته شده توسط «چت جی‌پی‌تی» تهیه شده و استدلال می‌کرد که نمی‌توان اجازه داد که هوش مصنوعی بدون حساب و کتاب و مقررات خاص توسعه پیدا کند.

بررسی مخاطرات هوش مصنوعی در جلسه سنای آمریکا با مدیر «اوپن ای‌آی»

سناتور بلومنتال توضیح داد که هرچند «چت جی‌پی‌تی» بازتابی از دیدگاه‌های واقعی او تهیه کرده است، اما به همین سادگی می‌توان محتوای جعلی با مطالبی مغایر با دیدگاه‌های او در مورد مسائلی مانند اوکراین و روسیه تهیه کرد.

این درحالی است که در ماه های اخیر شمار فزاینده‌ای از شرکت‌ها ابزارهای جدید هوش مصنوعی را به خدمت گرفته‌اند که این تحول ظرفیت بالقوه ایجاد تغییراتی در زندگی روزمره انسانها را دارد. این ابزارها در عین حال با انتقادهایی از سوی افراد مشهوری در حوزه فناوری در ارتباط با توان بالقوه آن برای مختل کردن میلیون‌ها شغل، اشاعه اطلاعات نادرست و ترویج تعصبات و سوگیری‌ها رو به رو شده‌اند.

آلتمن آشکارا اذعان کرد که ظهور و گسترش هوش مصنوعی می‌تواند تاثیری منفی بر بازار کار داشته باشد و بطور بالقوه منجر به بیکاری گسترده در بخش‌های مختلف شود.

وی در عین حال گفت: هوش مصنوعی می‌تواند مشاغل جدیدی ایجاد کند و این مستلزم همکاری و مشارکت بین صنایع و دولت است، اما درباره اهمیت و جالب بودن شغل‌های آینده خوشبین هستم.

 

هشدار درباره وارد کردن آسیب‌های بزرگ به جهان

مدیر عامل شرکت «اوپن ای‌آی» در این جلسه همچنین نگرانی عمیق خود را درباره تهدیدات بالقوه ناشی از هوش مصنوعی علیه دموکراسی در جهان بخصوص به شکل کارزارهای هدفمند اطلاعات نادرست در جریان انتخابات ابراز داشت.

وی تصریح کرد: بزرگترین هراس من این است که ما – این حوزه، این فناوری و این صنعت – موجب وارد شدن صدمات جدی به جهان شویم. به گمان چنین آسیب‌هایی ممکن است به اشکال بسیار مختلفی وارد شود. آلتمن به منظور پرداختن به چنین نگرانی‌هایی پیشنهاد کرد که حسابرسی‌های مستقلی از شرکت‌هایی مانند شرکت «اوپن ای.‌ای» انجام شود.

بررسی مخاطرات هوش مصنوعی در جلسه سنای آمریکا با مدیر «اوپن ای‌آی»

آلتمن شب پیش از حضور در سنای آمریکا در ضیافت شام کاری با 60 تن از اعضای مجلس نمایندگان آمریکا شرکت کرد و با ارائه کاربردهای مختلفی از «چت جی‌پی‌تی» موجب سرگرمی نمایندگان مجلس آمریکا شد که به گفته یکی از حاضران در جلسه، قانونگذاران در این رویداد «بر جای خود میخکوب شده بودند و بسیاری از حاضران در جلسه اذعان داشتند که تنظیم مقررات مربوط به هوش مصنوعی ضروری خواهد بود.

 

مشابهت‌سازی از هوش مصنوعی با بمب اتمی

در بخشی از جلسه سنای آمریکا با مدیر عامل شرکت «اوپن ای آی»، سناتور حزب «جمهوریخواه» «جاش هاولی» ضمن اذعان به پتانسیل‌ها یا ظرفیت‌های بالقوه شگرف و متحول‌ساز هوش مصنوعی، مشابهت‌سازی هشداردهنده‌ای را با اختراع بمب اتمی مطرح کرد.

بررسی مخاطرات هوش مصنوعی در جلسه سنای آمریکا با مدیر «اوپن ای‌آی»

بلومنتال سناتور از حزب «دموکرات» نیز با تاکید براینکه آینده تحت استیلای هوش مصنوعی باید مطابق با ارزش‌های اجتماعی باشد، گفت: آینده تحت سلطه هوش مصنوعی الزاما آینده‌ای نیست که خواهان آن هستیم.

وی از کنگره آمریکا خواست که از نقایص و کاستی‌های گذشته از جمله ناکامی در تنظیم مقررات کافی در حوزه رسانه‌های اجتماعی درس بگیرد.

وی تاکید کرد: کنگره نتواست در خصوص رسانه‌های اجتماعی به موقع عمل کند و اکنون وظیفه داریم در زمینه هوش مصنوعی به موقع عمل کنیم؛ پیش از آنکه تهدیدات و خطرات واقعی شوند.

 

هشدار معاون «آی بی ام» درباره دوره جدید «بدو و بشکن» هوش مصنوعی

بررسی مخاطرات هوش مصنوعی در جلسه سنای آمریکا با مدیر «اوپن ای‌آی»

در جلسه سنای آمریکا همچنین «کریستینا مونتگومری» معاون شرکت «آی بی ام» نسبت به شروع دوره جدیدی از «بدو و بشکن» شعار قدیمی غول‌های «سیلیکون ولی» مانند شرکت «فیسبوک» هشدار داد.

وی تاکید کرد: دوران هوش مصنوعی نمی‌تواند دوره دیگری از «بدو و بشکن» باشد.

مونتگومری در عین حال گفت: از سوی دیگر نباید ترمز نوآوری‌ها را بکشیم.

هشدار سازمان بهداشت جهانی درباره چت ربات‌ها

سه شنبه, ۲۶ ارديبهشت ۱۴۰۲، ۰۶:۳۸ ب.ظ | ۰ نظر

سازمان بهداشت جهانی درباره استفاده از چت ربات‌های ایجاد شده توسط هوش مصنوعی هشدار داد و خواستار هوش مصنوعی ایمن و اخلاقی برای سلامتی شد.
به گزارش ایرنا سازمان بهداشت جهانی خواستار احتیاط در استفاده از ابزارهای مدل زبان بزرگ (LLM) تولید شده توسط هوش مصنوعی (AI) برای محافظت و ارتقای رفاه انسان، ایمنی و استقلال انسان و حفظ سلامت عمومی است.

ابزارهای مدل زبان بزرگ‌ها شامل برخی از پلتفرم‌های به سرعت در حال گسترش مانند ChatGPT، Bard، Bert و بسیاری دیگر هستند که درک، پردازش و تولید ارتباطات انسانی را تقلید می‌کنند. انتشار عمومی و استفاده آزمایشی رو به رشد آن‌ها برای مقاصد مرتبط با سلامت، هیجان قابل توجهی را در مورد پتانسیل حمایت از نیازهای بهداشتی مردم ایجاد می‌کند.

ضروری است که هنگام استفاده از ابزارهای مدل زبان بزرگ که به نام چت ربات‌های هوش مصنوعی شناخته می‌شوند، برای بهبود دسترسی به اطلاعات بهداشتی، به عنوان یک ابزار پشتیبانی تصمیم، یا حتی برای افزایش ظرفیت تشخیصی در محیط‌های کم منابع برای محافظت از سلامت مردم و کاهش نابرابری، خطرات به دقت بررسی شوند.

در حالی که سازمان بهداشت جهانی مشتاق استفاده مناسب از فناوری‌ها، از جمله چت با هوش مصنوعی، برای حمایت از متخصصان مراقبت‌های بهداشتی، بیماران، محققان و دانشمندان است، این نگرانی وجود دارد که احتیاط‌هایی که معمولاً برای هر فناوری جدید اعمال می‌شود، به طور مداوم در مورد ابزارهای مدل زبان بزرگ اعمال نمی‌شود. این شامل گسترش ارزش‌های کلیدی شفافیت، اخلاق مداری، مشارکت عمومی، نظارت متخصصان و ارزیابی دقیق است.

پذیرش سریع سیستم‌های آزمایش‌نشده می‌تواند منجر به اشتباهات کارکنان مراقبت‌های بهداشتی، آسیب رساندن به بیماران، کاهش اعتماد به هوش مصنوعی و در نتیجه تضعیف (یا تأخیر) مزایای بالقوه بلندمدت و استفاده از چنین فناوری‌هایی در سراسر جهان شود.

نگرانی‌هایی که مستلزم نظارت دقیق مورد نیاز برای استفاده از فناوری‌ها به روش‌های ایمن، مؤثر و اخلاقی هستند عبارتند از:

داده‌های مورد استفاده برای آموزش هوش مصنوعی ممکن است مغرضانه باشد و اطلاعات گمراه‌کننده یا نادرستی ایجاد کند که می‌تواند خطراتی برای سلامتی، برابری و فراگیر بودن ایجاد کند.

ابزارهای مدل زبان بزرگ‌ها پاسخ‌هایی را تولید می‌کنند که می‌توانند برای کاربر نهایی معتبر و قابل قبول به نظر برسند. با این حال، این پاسخ‌ها ممکن است کاملاً نادرست باشند یا حاوی خطاهای جدی باشند، به ویژه برای پاسخ‌های مرتبط با سلامت.

ممکن است ابزارهای مدل زبان بزرگ در مورد داده‌هایی که قبلاً برای چنین استفاده‌هایی رضایت ارائه نشده است آموزش ببینند و ممکن است از داده‌های حساس (از جمله داده‌های سلامت) که کاربر برای ایجاد پاسخ در اختیار یک برنامه کاربردی قرار می‌دهد، محافظت نکنند.

از چت بات ها می‌توان برای تولید و انتشار اطلاعات نادرست بسیار قانع کننده در قالب محتوای متنی، صوتی یا ویدئویی استفاده نادرست کرد که تشخیص آن برای عموم از محتوای سلامت قابل اعتماد دشوار است.

در حالی که بهداشت جهانی متعهد به استفاده از فناوری‌های جدید، از جمله هوش مصنوعی و سلامت دیجیتال برای بهبود سلامت انسان است، سازمان بهداشت جهانی توصیه می‌کند که سیاست‌گذاران از ایمنی و محافظت از بیمار اطمینان حاصل کنند، در حالی که شرکت‌های فناوری برای تجاری‌سازی ابزارهای مدل زبان بزرگ (چت بات های هوش مصنوعی) تلاش می‌کنند.

سازمان بهداشت جهانی پیشنهاد می‌کند که به این نگرانی‌ها رسیدگی شود، و شواهد واضحی از منافع قبل از استفاده گسترده از آنها در مراقبت‌های بهداشتی و پزشکی معمول، چه توسط افراد، چه ارائه‌دهندگان مراقبت‌ها یا مدیران سیستم سلامت و سیاست‌گذاران، اندازه‌گیری شود.

سازمان بهداشت جهانی بر اهمیت به کارگیری اصول اخلاقی و حکمرانی مناسب، همان‌طور که در راهنمای سازمان بهداشت جهانی، در مورد اخلاق و حکمرانی هوش مصنوعی برای سلامت، در هنگام طراحی، توسعه و استقرار هوش مصنوعی برای سلامت برشمرده شده است، تاکید می‌کند.

شش اصل اصلی شناسایی شده توسط سازمان بهداشت جهانی عبارتند از: (۱) حفاظت از خودمختاری. (۲) ارتقا رفاه انسان، ایمنی انسان، و منافع عمومی. (۳) شفافیت، توضیح پذیری و قابل فهم بودن را تضمین کند. (۴) مسئولیت پذیری و مسئولیت شناسی را تقویت کند. (۵) از فراگیری و برابری آن اطمینان حاصل شود. (۶) هوش مصنوعی پاسخگو و پایدار را ارتقا دهید.

روش شناسایی تصاویر ساختگی با هوش مصنوعی

سه شنبه, ۲۶ ارديبهشت ۱۴۰۲، ۰۳:۵۹ ب.ظ | ۰ نظر

گوگل به منظور کاهش انتشار اطلاعات نادرست، به ویژه اکنون که ابزارهای هوش مصنوعی ساخت تصاویر جعلی واقعی‌نما را راحت کرده اند، دو ابزار جدید به جستجوی تصویر خود اضافه می‌کند.
به گزارش ایسنا، نخستین ویژگی جدیدی که از سوی گوگل عرضه می‌شود، "درباره این تصویر" (About this image) نام دارد  که توضیح بیشتری مانند زمانی که یک تصویر یا تصاویر مشابه برای اولین بار توسط گوگل ایندکس شده اند، نخستین جایی که برای اولین بار در اینترنت ظاهر شدند و جای دیگری که به صورت آنلاین نمایش داده شدند را اضافه می‌کند. هدف از عرضه این ویژگی، این است که به کاربران کمک شود منبع اصلی تصویر را مشخص کنند و با هرگونه شواهد رد کردنی که ممکن است توسط سازمان‌های خبری ارائه شده باشد، تصویر را مورد بررسی قرار دهند.

گوگل هر تصویر تولید شده توسط هوش مصنوعی را که توسط ابزارهایش ایجاد شده است، علامت‌گذاری می‌کند و با پلتفرم‌ها و سرویس‌های دیگر همکاری خواهد کرد تا مطمئن شود که همان نشانه‌گذاری را به فایل‌هایی که منتشر می‌کنند، اضافه می‌کنند. میدجورنی و شاتراستاک، از جمله ناشرانی هستند که با گوگل همراهی می‌کنند و هدف این است که اطمینان حاصل شود همه محتوای هوش مصنوعی که در نتایج جستجو ظاهر می‌شوند، نشانه گذاری شده اند.

منشأ تصاویر آنلاین، مسئله‌ای است که در دوران هوش مصنوعی، اهمیت رو به رشدی پیدا کرده است و چندین استارتاپ مشغول تولید ابزارهای تایید و احراز هویت هستند. به عنوان مثال، شرکت تروپیک (Truepic Inc) که تحت حمایت مایکروسافت قرار دارد، سیستم‌هایی را عرضه می‌کند که تضمین می‌کنند تصویر از زمان ثبت تا انتشار، دستکاری نشده است.

بر اساس گزارش بلومبرگ، ویژگی‌های جدید گوگل که به تدریج در سال میلادی جاری عرضه می‌شوند، از فناوری نسبتا پایین‌تری برخوردار هستند، اما ممکن است با پشتیبانی کافی صنعت، اثرگذاری مثبت بیشتری داشته باشند.

اروپا پیشتاز تصویب قوانین هوش مصنوعی

يكشنبه, ۲۴ ارديبهشت ۱۴۰۲، ۰۵:۳۰ ب.ظ | ۰ نظر

بسیاری از دولت‌ها در جهان در حال رقابت برای تدوین قوانینی در زمینه هوش مصنوعی هستند؛ از جمله اتحادیه اروپا که روز پنجشنبه پیش‌نویس قانون اولیه هوش مصنوعی را تصویب کرد.

به گزارش خبرگزاری صداوسیما به گزارش نشریه آمریکایی سنتینل تریبون، کمیته پارلمان اروپا به پیشنهاد قانونی رأی داد که بخشی از تلاش چند ساله در راستای ایمنی استفاده از فناوری هوش مصنوعی است. 

این تلاش‌ها فوریت بیشتری پیدا کرده‌اند، زیرا پیشرفت‌های سریع چت‌بات‌هایی مانند «چت جی پی تی» مزایایی را که فناوری نوظهور می‌تواند به همراه داشته باشد و خطرات جدیدی که ایجاد می‌کند، برجسته می‌کند.

 

قوانین چگونه کار می‌کنند؟

قانون هوش مصنوعی که برای اولین بار در سال ۲۰۲۱ ارائه شد، بر هر محصول یا خدماتی که از سیستم هوش مصنوعی استفاده می‌کند، نظارت دارد. 

این قانون، سیستم‌های هوش مصنوعی را بر اساس چهار سطح خطر، از حداقل تا غیرقابل قبول طبقه‌بندی می‌کند. برنامه‌های پرخطرتر با الزامات سخت‌تری مواجه خواهند شد، از جمله شفاف‌تر بودن و استفاده از داده‌های دقیق. 

 

خطرات چیست؟

یکی از اهداف اصلی اتحادیه اروپا محافظت در برابر هرگونه تهدید هوش مصنوعی برای سلامت، ایمنی، حفاظت از حقوق و ارزش‌های اساسی است.

این بدان معناست که برخی از استفاده‌های هوش مصنوعی یک «نه» مطلق هستند، مانند سیستم‌های امتیاز اجتماعی که افراد را بر اساس رفتارشان قضاوت می‌کنند. 

هوش مصنوعی که از افراد آسیب‌پذیر از جمله کودکان بهره‌کشی می‌کند یا می‌تواند منجر به آسیب شود، ممنوع است.

قانونگذاران اروپایی استفاده از ابزار‌های پلیسیِ پیش‌بینی کننده محل وقوع جنایات و اینکه چه کسی مرتکب آن‌ها می‌شود را هم ممنوع کردند.

آن‌ها همچنین ممنوعیت گسترده‌ای را برای تشخیص چهره از راه دور تصویب کردند؛ به استثنای اجرای قانون مانند جلوگیری از یک تهدید تروریستی خاص. این فناوری رهگذران را اسکن می‌کند و از هوش مصنوعی برای تطبیق چهره آن‌ها با پایگاه داده استفاده می‌کند.

«براندو بنیفی» قانونگذار ایتالیایی که از مسئولان پیگیر تصویب قانون هوش مصنوعی در پارلمان اروپاست، به خبرنگاران گفت: هدف ما جلوگیری از ایجاد جامعه کنترل‌شده مبتنی بر هوش مصنوعی است. از این فناوری‌ها می‌توان در زمینه‌های مثبت و منفی استفاده کرد و به همین دلیل خطرات آن را بسیار زیاد می‌دانیم.

سیستم‌های هوش مصنوعیِ مورد استفاده در دسته‌های پرخطر مانند اشتغال و تحصیل که بر روند زندگی افراد تأثیر می‌گذارد، با الزامات سختی مانند شفاف بودن با کاربران، اعمال ارزیابی ریسک و اقدامات کاهشی مواجه هستند.

بازوی اجرایی اتحادیه اروپا می‌گوید که بیشتر سیستم‌های هوش مصنوعی، مانند بازی‌های ویدئویی در گروه کم‌خطر یا بدون خطر قرار می‌گیرند.

 

در مورد «چت جی پی تی» چطور؟

در پیشنهاد اولیه ۱۰۸ صفحه‌ای اروپا درباره هوش مصنوعی، به سختی از چت‌بات‌ها نام برده می‌شد به این شکل که صرفاً باید آن‌ها را برچسب‌گذاری کرد تا کاربران بدانند که در حال تعامل با یک ماشین هستند. مذاکره‌کنندگان بعداً مقرراتی را برای پوشش هوش مصنوعی عمومی مانند «چت جی پی تی» اضافه کردند و آن‌ها را در معرض برخی از الزامات مشابه سیستم‌های پرخطر قرار دادند. 

یکی از موارد کلیدی این است که باید به طور کامل هر گونه حق نسخه‌برداری را که برای آموزش سیستم‌های هوش مصنوعی استفاده می‌شود، مستندسازی کنید تا متن، تصویر، ویدئو یا موسیقی شبیه کار انسان تولید کنند. این به سازندگان محتوا اجازه می‌دهد بدانند که آیا از پست‌های وبلاگ، کتاب‌های دیجیتال، مقالات علمی یا آهنگ‌های پاپ آن‌ها برای آموزش الگوریتم‌هایی استفاده شده است که سیستم‌هایی مانند «چت جی پی تی» را تقویت می‌کنند. سپس آن‌ها می‌توانند تصمیم بگیرند که آیا کارشان کپی شده است یا خیر و به دنبال جبران خسارت باشند. 

 

چرا قوانین اتحادیه اروپا بسیار مهم است؟

اتحادیه اروپا بازیگر بزرگی در توسعه پیشرفته هوش مصنوعی نیست. این نقش را آمریکا و چین بر عهده دارند. اما بروکسل اغلب با مقرراتی که تمایل دارد به استاندارد‌های جهانی تبدیل شوند، نقش تعیین‌کننده‌ای را در این روند ایفا می‌کند.

بروکسل همچنین در تلاش است تا بازار را با ایجاد اعتماد در میان کاربران توسعه دهد.

به گفته «یوهان لاکس» کارشناس موسسه اینترنت آکسفورد، تفکر پشت قوانین درباره هوش مصنوعی این است که اگر بتوانید مردم را به اعتماد به هوش مصنوعی و برنامه‌های کاربردی ترغیب کنید، آن‌ها نیز بیشتر از آن استفاده خواهند کرد و زمانی که از آن بیشتر استفاده کنند، پتانسیل اقتصادی و اجتماعی هوش مصنوعی را افزایش خواهند داد.

 

اگر قوانین را زیر پا بگذارید چه؟

زیر پا گذاشتن قوانین در این حوزه منجر به جریمه‌هایی تا ۳۰ میلیون یورو (۳۳ میلیون دلار) یا ۶ درصد از درآمد جهانی سالانه یک شرکت می‌شود که در مورد شرکت‌های فناوری مانند گوگل و مایکروسافت می‌تواند به میلیارد‌ها دلار برسد.

 

بعد چه می‌شود؟

ممکن است سال‌ها طول بکشد تا قوانین به طور کامل اجرایی شوند. 

قانونگذاران اتحادیه اروپا قرار است در نشست عمومی در اواسط ژوئن (خردادماه) در مورد پیش‌نویس این قانون رأی‌گیری کنند. پارلمان اروپا سپس وارد مذاکرات سه‌جانبه‌ای می‌شود که شامل ۲۷ کشور عضو بلوک، پارلمان و کمیسیون اجرایی می‌شود؛ جایی که ممکن است این پیش‌نویس با تغییرات بیشتری در بحث جزئیات مواجه شود. 

انتظار می‌رود این پیش‌نویس تا پایان سال یا حداکثر تا اوایل سال ۲۰۲۴ تأیید نهایی شود و پس از آن یک دوره مهلت برای سازگاری شرکت‌ها و سازمان‌ها که اغلب حدود دو سال است، ارائه خواهد شد.

جنجال هوش مصنوعی در انتخابات ترکیه

يكشنبه, ۲۴ ارديبهشت ۱۴۰۲، ۰۵:۱۸ ب.ظ | ۰ نظر

کاربران ترک اینترنت وقتی متوجه شدند که کمال کلیچداراوغلو، رقیب اصلی رجب طیب اردوغان، رئیس‌جمهور ترکیه در انتخابات روز یکشنبه، در ویدئویی که ۲ هفته پیش در فضای مجازی منتشر شد، به‌صورت کامل انگلیسی صحبت می‌کند، شگفت‌زده شدند. اما ۲ روز بعد، وب سایت مستقل ترکیه‌ای به نام Teyit فاش کرد که این ویدئو ساختگی بوده است.
پیشرفت هوش مصنوعی غیرقابل کنترل است و حالا این فناوری قرار است تأثیر خود را در انتخابات سیاسی کشور‌ها به رخ بکشد. با این حال کارشناسان هوش مصنوعی می‌گویند محتوای گمراه‌کننده تولید شده توسط هوش مصنوعی می‌تواند رأی‌دهندگان را تحت‌تأثیر قرار دهد.

به گزارش همشهری آنلاین به نقل از یورونیوز، شاید انتخابات ریاست‌جمهوری ترکیه نخستین جایی باشد که این چالش خودش را نشان می‌دهد. کاربران ترک اینترنت وقتی متوجه شدند که کمال کلیچداراوغلو، رقیب اصلی رجب طیب اردوغان، رئیس‌جمهور ترکیه در انتخابات روز یکشنبه، در ویدئویی که ۲ هفته پیش در فضای مجازی منتشر شد، به‌صورت کامل انگلیسی صحبت می‌کند، شگفت‌زده شدند. اما ۲ روز بعد، وب سایت مستقل ترکیه‌ای به نام Teyit فاش کرد که این ویدئو ساختگی بوده است.

همچنین رقیب اردوغان اعلام کرده که ویدئوی پخش شده از محرم اینجه، نامزد دیگر انتخابات که مجبور به کناره‌گیری شد به‌وسیله هوش‌مصنوعی و فناوری دیپ‌فیک ساخته شده است.

ایالات متحده آمریکا نیز که خود را برای انتخابات ۲۰۲۴ ریاست‌جمهوری آماده می‌کند با این چالش روبه‌رو است.

حزب جمهوری‌خواهان از ویدئوی تولید شده توسط هوش مصنوعی برای انتقاد از جو بایدن استفاده کرده که نشان‌دهنده تأثیر این فناوری پیشرفته در سیاست است. پیشرفت‌های فناوری دیجیتال ابزار‌های جدید و سریع‌تری را برای پیام‌رسانی سیاسی فراهم می‌کند و می‌تواند تأثیر عمیقی بر نحوه نگاه رأی‌دهندگان، سیاستمداران و خبرنگاران به نامزد‌ها و مبارزات انتخاباتی داشته باشد. ما دیگر در مورد فتوشاپ عکس‌ها یا قرار دادن سر کسی روی بدن فرد دیگری صحبت نمی‌کنیم، بلکه در حال حرکت به سمت دورانی هستیم که ویدئو‌ها و تصاویری واقعی با هوش مصنوعی ساخته و منتشر می‌شود و توانایی مخاطب عام نیز برای تشخیص اصل یا جعلی بودن آن‌ها محدود است.

سیاستمداران می‌توانند از هوش مصنوعی مولد برای پاسخ فوری به تحولات استفاده کنند. این فناوری راه ارزانی برای ایجاد پاسخ‌های فوری بدون اتکا به مشاوران پردرآمد یا فیلمبرداران خبره است. این فناوری هدف‌گذاری بسیار دقیقی برای مخاطبان ایجاد می‌کند که در کمپین‌های سیاسی بسیار مهم است.

دانشگاه امیرکبیر هاب هوش مصنوعی کشور شد

يكشنبه, ۲۴ ارديبهشت ۱۴۰۲، ۰۳:۵۳ ب.ظ | ۰ نظر

معاون پژوهشی دانشگاه صنعتی امیرکبیر از انتخاب این دانشگاه به عنوان هاب کشور از طریق بعضی وزارت خانه‌ها در زمینه هوش مصنوعی خبر داد.
به گزارش روابط عمومی دانشگاه صنعتی امیرکبیر ، عامری شهرابی در مراسم اختتامیه هفتمین جشنواره هوش مصنوعی دانشگاه صنعتی امیرکبیر گفت: بیش از یک دهه از برگزاری این مسابقه می‌گذرد. هدف از این نوع مسابقات این است که دانشگاه علاوه بر ارتقای سطح علمی و پژوهش، رابطه خوبی با صنعت برقرار کند. رابطه‌ای که از رهگذر آن مشکلات صنعت را حل کنیم. اگر رابطه موثری بین دانشگاه و صنعت ایجاد شود، به رفاه عمومی و بهبود وضعیت کشور منتهی خواهد شد.

وی افزود: مشکلاتی در ارتباط بین دانشگاه و صنعت در گذشته وجود داشته است. ریشه برخی از این مشکلات به دانشگاه و برخی دیگر به صنعت برمی‌گردد. این مشکلات در کشور‌های دیگر هم وجود داشته است.

عامری با بیان این که مسابقه هوش مصنوعی بر اساس نیاز‌های صنعت شکل گرفته بطوری که عنوان هر مسابقه با نظر صنعت حامی مسابقه تعیین می‌شود. گفت: پژوهشگران همیشه گلایه داشتند که پژوهش‌های شان در کتابخانه‌ها خاک می‌خورد؛ اما امروز با برگزاری این نوع مسابقات پژوهش‌ها کاربردی می‌شوند. 

وی گفت: در این راستا، سعی بر آن است پایان نامه‌ها را نیز به سمت حل مشکلات صنعت ببریم که قطعا صنعت هم حمایت خواهد کرد. با مذاکراتی که با شرکت فولاد مبارکه اصفهان داشتیم آن‌ها پذیرفتند که از پایین نامه‌های مرتبط با صنعت فولاد حمایت‌های خوبی داشته باشند. به طوری که، هر پژوهشی مرتبط با فولاد مبارکه انجام شود، از ۳۰ تا ۷۰ میلیون تومان از پایان‌نامه‌اش حمایت مالی می‌شود. همچنین هر کدام از طرح‌هایی که بتواند به طرح کلان برسد، از حمایت ۱۰۰ میلیون تومانی بهره‌مند می‌شوند. کسانی که در مسابقه برنده شدند یا نشدند هم می‌توانند از این حمایت استفاده کنند با این شرط که یکی از استادان دانشگاه صنعتی امیرکبیر مسئولیت آن طرح را بپذیرد. 

معاون پژوهشی دانشگاه صنعتی امیرکبیر تصریح کرد: اتاق بازرگانی هم اعلام کرده است که از پایان‌نامه‌های دانشجویان این دانشگاه حمایت خواهد کرد. هم راستا کردن پایان‌نامه‌ها با مشکلات کشور یکی از برنامه‌های مهم معاونت پژوهشی دانشگاه صنعتی امیرکبیر است. بازدید از واحد‌های صنعتی هم یکی دیگر از اقدامات معاونت پژوهشی جهت آشنایی اساتید و دانشجویان با صنعت است. بعضی از شرکت‌ها هزینه‌های رفت و آمد و اسکان دانشجویان و استادان را به عهده گرفته‌اند تا پژوهش‌های دانشگاهی در راستای نیاز‌های آن شرکت هدایت شود.

وی تاکید کرد: کمک هزینه پژوهش حداقل ۶۶ میلیون تومانی برای استادان جوان در راستای ارتباط بهتر با صنعت درنظر گرفته شده است. 

معاون پژوهشی دانشگاه صنعتی امیرکبیر گفت: هدف مسابقه این است که ارتباط خوبی بین دانشگاه و صنعت ایجاد کند. به همین دلیل، با تمام توان در این زمینه تلاش خواهیم کرد. 

عامری با اشاره به این که از صنایع درخواست می‌کنم به تقویت این ارتباط ادامه دهند، یادآور شد: برخی وزارتخانه‌ها دانشگاه صنعتی امیرکبیر را به عنوان هاب هوش مصنوعی کشور انتخاب کردند و اعلام کردند که هر دانشگاهی در کشور قصد دارد در زمینه هوش مصنوعی مرتبط با وزراتخانه مربوطه فعالیت کند، باید از طریق دانشگاه صنعتی امیرکبیر اقدام کند. چرا که ظرفیت‌های بسیار خوبی در این دانشگاه وجود دارد.

معاون پژوهشی دانشگاه صنعتی امیرکبیر افزود: هم‌اکنون پروژه‌های بسیاری در دانشگاه صنعتی امیرکبیر در حال انجام است که در همکاری با هوشمند سازی صنایع شکل گرفته است. 

وی یادآور شد: هوشمندسازی یکی از اهداف اصلی دانشگاه صنعتی امیرکبیر است و ریاست دانشگاه بار‌ها این بر این ماموریت تاکید داشتند. در این زمینه پتانسیل بالایی در دانشگاه وجود دارد. به جرات می‌توان گفت همه دانشکده‌های این دانشگاه، هم‌اکنون در موضوع هوشمندسازی فعالیت دارند. برای مثال در دانشکده نفت، موضوع هوشمندسازی چاه‌های نفتی بیش از یک دهه است نه تنها تدریس می‌شود بلکه پایان نامه‌ها و مقالات متعددی نیز منتشر کرده است. دانشکده‌های مثل مهندسی برق، مکانیک، شیمی و ... که مدتهاست در این زمینه فعالند؛ لذا به نظر من این مسابقه می‌تواند در سطح دانشگاه نیز برگزار شود.

عامری تاکید کرد: این دانشگاه جامع‌ترین و کامل‌ترین دانشگاه صنعتی کشور است. چرا که دانشکده‌های متنوع فنی نظیر مهندسی پزشکی، پلیمر، پتروشیمی را بطور انحصاری دارد و بقیه رشته‌های رایج را نیز به طریق اولی دارد؛ لذا از تمام صنایع برای ارتباط بیشتر با این دانشگاه دعوت می‌کنیم و امیدواریم دانشگاه و صنعت در کنار هم بتوانند مشکلات کشور را یر طرف کنند.

هوش مصنوعی هر دقیقه یک کتاب می‌خواند

يكشنبه, ۲۴ ارديبهشت ۱۴۰۲، ۰۳:۵۰ ب.ظ | ۰ نظر

شرکت آنتروپیک با ارتقای مدل هوش مصنوعی Claude مدعی شده است که این مدل اکنون حافظه بزرگ‌تری نسبت به GPT-4 دارد.
به گزارش خبرگزاری صدا و سیما؛ شرکت آنتروپیک اعلام کرد: قدرت پردازش داده توسط هوش مصنوعی مولد خود، یعنی Claude را به‌طرز قابل‌توجهی افزایش داده است. این مدل از محدودیت پردازش ۹ هزار توکن حالا به ۱۰۰ هزار توکن رسیده است.

به عبارت دیگر این هوش مصنوعی می‌تواند رمانی مثل «فرانکشتاین» اثر «ماری شلی» را در کمتر از یک دقیقه بخواند و اطلاعات آن را تحلیل کند. استارتاپ هوش مصنوعی آنتروپیک که توسط مهندسان سابق OpenAI تأسیس شده حافظه مدل زبانی Claude خود را ارتقا داده است تا این نرم‌افزار بتواند در هر نشست حدود ۷۵ هزار کلمه را پردازش کند.

براساس توضیحاتی که در وبلاگ این استارتاپ ارائه شده است، Claude می‌تواند در یک جلسه به‌طور کامل کتاب «گتسبی بزرگ» را مطالعه و پردازش کند. در آزمایشی که برای بررسی این قابلیت انجام شده است، آن‌ها یک جمله را در داخل این کتاب تغییر دادند تا عملکرد هوش مصنوعی را در تشخیص این تغییر امتحان کنند.

نتیجه این بود که Claude در ۲۲ ثانیه موفق به تشخیص این تغییر شد. مدل‌های هوش مصنوعی اطلاعات را نه براساس تعداد حروف یا کلمات، بلکه با کمک توکن‌ها ارزیابی می‌کنند. این روش منطقی‌تر است، چون کلمات می‌توانند بلند یا کوتاه باشند و اندازه‌شان لزوماً ارتباط مستقیمی با پیچیدگی معنایی آن‌ها ندارد.

همان‌طور که گفتیم، حافظه Claude اکنون به ۱۰۰ هزار توکن رسیده است، درحالی‌که مدلی مثل GPT-۴ در حالت عادی ۸ هزار توکن را پردازش می‌کند و نسخه‌ای از آن می‌تواند تا ۳۲ هزار توکن را پردازش کند. این ظرفیت بالا در مدل Claude درحال‌حاضر فقط برای شرکای تجاری انتروپیک در دسترس است.

همچنین گفته نشده که هزینه استفاده از این مدل چقدر بیشتر از مدل قبلی این شرکت است. آنتروپیک می‌گوید برای یک انسان حدود پنج ساعت طول می‌کشد تا بتواند ۷۵ هزار کلمه را بخواند. بااین‌حساب، هوش مصنوعی می‌تواند از یک جهت دیگر برتر از انسان‌ها عمل کند و قابلیت‌های متنوعی داشته باشد.

بحران جهانی هوش مصنوعی

شنبه, ۲۳ ارديبهشت ۱۴۰۲، ۰۷:۴۶ ب.ظ | ۰ نظر

رامین کیانی - چند روز پیش بود که جفری هینتون ملقب به پدرخوانده هوش مصنوعی، ضمن اعلام خطرات هوش مصنوعی برای آینده بشریت، از کار کناره‌گیری کرد. تنها جفری هینتون نیست که از این مسئله ابراز نگرانی می‌کند، تعدادی از دانشگاهیان و افراد برجسته در حوزه فناوری نیز چنین مسائلی را مطرح کرده‌اند. برخی بر این باورند که هوش مصنوعی آینده جهان خواهد بود. برخی معتقدند که هوش مصنوعی در خدمت انسان است و انسان به وسیله این به اصطلاح ابزار، توانایی خارق العاده‌ای را برای دخل و تصرف در جهان پیرامون خود به دست خواهد آورد. گروه دیگری چنین بیان می‌کنند که جهان آینده، جهان هوش مصنوعی است اما بدون انسان و یا حتی دیگر موجودات. 

شاید در نگاه اول این موضوع بسیار دور از انتظار به نظر برسد و تنها فیلم‌های آخر زمانی را برای ما تداعی کند اما کمی تامل و توجه به ابعاد مختلف موضوع، واقعیت‌ها را برای ما علنی‌تر می‌کند. 

باید یادمان باشد که هوش مصنوعی رباتیک نیست. معمولا بیشتر افراد این دو حوزه را با یکدیگر اشتباه می‌گیرند. تصوری که از ربات‌ها در ذهن خود دارید را دور بریزید. رباتیک و هوش مصنوعی اهداف بسیار متفاوتی را دنبال می‌کنند. هوش مصنوعی قادر است به سوالاتی پاسخ دهد و معماهایی را حل کند که شما و هیچ شخص دیگری ابدا پاسخی برای آن تعریف نکرده‌اید. همانطور که از نام آن پیداست هوش مصنوعی تلاشی است برای ساخت هوش. هوش مصنوعی نمونه‌ای از تلاش انسان برای شبیه سازی هوش خود برای سهولت انجام امور و کاهش رنج است. هوش بخشی از ماحصل فعالیت‌های مغز است. مغز ما یعنی انسان‌های خردمند (هموساپینس‌ها) به عنوان پیشرفته‌ترین مغز در جهان شناخته می‌شود. حال با ظهور هوش مصنوعی یک مسئله جدید پیش روی ماست، آیا هوش مصنوعی می‌تواند از هوش هموساپینس‌ها که خالق آن هستند فراتر رود؟ برخی معتقد هستند که این موضوع امکان پذیر نیست؛ اما گروه دیگری بر این باورند که هوش مصنوعی محدودیت‌های بیولوژیکی مغز هموساپینس‌ها را ندارد. صحبت پیرامون این مسئله را به جای دیگری واگذار کنیم. 

پرسش مهمتری که تا اینجای بحث پیش روی ما این است که چرا ظهور یک هوش می‌تواند برای ما (هموساپینس‌ها) خطرساز باشد؟ برای پاسخ به این سوال باید به سراغ زیست‌شناسی و ژنتیک برویم. با نگاهی به دنیای پیرامون در می‌یابیم که بسیاری از حیوانات از نظر فیزیکی و سازگاری با محیط توانایی‌های بسیار بیشتری از ما دارند و این تنها مغز و هوش انسان خردمند بوده که او را حاکم بلامنازع کره زمین کرده است. انسان با کمک مغز خود ابزار تولید کرده و به وسعت ابزارهایش جهان را تحت سلطه خود درآورده است. شاید دانستن این موضوع بی‌ربط نباشد که همین جهان پیرامونی که ما درباره آن صحبت می‌کنیم واقعا به گونه‌ای که ما می‌بینیم نیست و تصویری که ما از جهان می‌بینیم و درک ما از هستی، برایند پردازش داده‌هایی است که مغز ما با کمک گیرنده‌های خود (حواس پنج‌گانه) از محیط دریافت می‌کند. جالب است که بدانیم دیدن، شنیدن، چشیدن و همه چیز در ذهن ما رخ می‌دهد و نه در خود اندام‌های گیرنده. این‌‌ها موضوعات بسیار قابل تاملی است. حالا شاید بهتر مفهوم هوش مصنوعی را درک کنیم. 

در واقع می‌توان گفت هوش مصنوعی هم مانند مغز هموساپینس‌ها درکی از جهان دارد. درکی که احتمالا ما هیچ اطلاعی از آن نداریم. از این نقطه به بعد داستان برای ما بسیار خطرناک‌ می‌شود. هوش مصنوعی درکی از جهان دارد، همانند دیگر موجودات. هر جنبنده‌ای به میزان توسعه مغزش از جهان پیرامون خود درکی دارد. پس هرچند که هوش مصنوعی ساخته طبیعت نیست و از دل آن بیرون نیامده و ظاهرا نمی‌تواند یک رقیب برای گونه هموساپینس‌ها باشد اما هوش مصنوعی ساخته هموساپینس‌هاست، ساخته‌ای که درکی از جهان دارد و قادر است تصمیم‌گیری ‌کند و احتمالا در آینده‌ای نزدیک، خود نیز خالق ابزارهای خود باشد و این یک تهدید بسیار بزرگ است. 

آنچه پیداست هوش مصنوعی روز به روز پیشرفته‌تر خواهد شد و احتمالا هموساپینس‌ها در خطر انقراض قرار می‌گیرند. حال سوال نهایی ما این است. انسان خردمند در مقابل این تهدید چه کاری می‌تواند انجام دهد؟ آیا راه خلاصی وجود دارد؟ اینجاست که انسان خردمند بار دیگر باید از ابزارهای خود استفاده کند. یکی از ابزارهای انسان حکومت است. حکومت‌ها باید به تصویب قوانین بازدارنده بپردازند. هر چند احتمالا هیچ قانونی نمی‌تواند به طور کامل در مقابل رشد هوش مصنوعی ایستادگی کند. هوش مصنوعی به عنوان یک تهدید جهانی نیاز به راه حل‌ جهانی دارد. همانطور که تغییرات اقلیمی، تروریسم و پاندمی‌های نوین نیز بحران‌های جهانی هستند و راه حل‌های جهانی طلب می‌کنند. انسان‌ خردمند باید از ابزارهای جهانی خود یعنی سازمان‌های بین‌المللی استفاده کند. 

شاید سازمان‌های بین‌المللی اکنون توانایی غلبه بر بسیاری از مشکلات جهانی را نداشته باشند. اما تشدید بحران‌های کنونی و ظهور بحران‌های جدید اهمیت سازمان‌های بین‌المللی را بیش از پیش برای همگان آشکار خواهد کرد. سازمان‌های بین‌المللی و در رأس آنها سازمان ملل متحد باید هر چه زودتر در مقابل این تهدید جهانی چاره‌ای بیاندیشند، پیش از آن که کار از کار بگذرد. (منبع:دیپلماسی ایرانی)

وزنیاک: نمی‌توان رشد هوش مصنوعی را متوقف کرد

جمعه, ۲۲ ارديبهشت ۱۴۰۲، ۰۳:۲۰ ب.ظ | ۰ نظر

استیو وزنیاک، یکی از بنیانگذاران کمپانی اپل، در هشداری جدی درباره پیشرفت هوش مصنوعی، گفته است ما نمی‌توانیم رشد آن را متوقف کنیم.
به گزارش همشهری آنلاین و به نقل از روزنامه سان، این هشدار تنها چند روز پس از آن منتشر شد که جفری هینتون که او را به عنوان پدرخوانده هوش مصنوعی می‌شناسند، هشدار داد که این فناوری می تواند توسط «بازیگران بد» استفاده شود.

وزنیاک به همراه استیو جابز در سال ۱۹۷۶ کمپانی اپل را تأسیس کرده بود، او در مصاحبه‌ای با بی‌بی‌سی نیز نگرانی مشابهی را تکرار کرده است. وزنیاک که اکنون ۷۲ سال دارد به این شبکه گفت که نگران است «بازیگران بد» از هوش مصنوعی سوء استفاده کنند و از آن برای فریب قربانیان ناآگاه، به دست آوردن اطلاعات شخصی یا سرقت اطلاعات استفاده کنند.

وزنیاک افزود: هوش مصنوعی بسیار باهوش است و درهای آن برای بازیکنان بد باز است، آن‌هایی که شما را درباره هویت خود و اینکه چه کسی هستندف فریب می‌دهند. او پیشنهاد کرد که محتوای هوش مصنوعی باید برچسب‌گذاری و تنظیم شود و ادعا کرد که شرکت‌های بزرگ فناوری احساس می‌کنند که می‌توانند از هر چیزی در حال حاضر استفاده کنند واز پیگرد و نظارت مصون بمانند.

وزنیاک گفت: یک انسان واقعا باید مسئولیت آنچه که توسط هوش مصنوعی تولید می شود را بپذیرد. همزمان او به این نکته اذعان کرد که مقررات نمی‌تواند به تنهایی مشکل در رابطه با هوش مصنوعی را حل کند و اشاره کرد که برخی ممکن است از پول و منابع مالی برای تغییر خیلی چیزها به نفع خود استفاده کنند.

در ماه‌های اخیر، نگرانی‌ها در مورد اینکه آیا پیشرفت‌های هوش مصنوعی به حدی خواهد رسید که چت‌بات‌ها، روبات‌ها و سایر سیستم‌ها جایگزین کارگران انسانی شوند، افزایش یافته است. وزنیاک نسبت به این نگرانی‌ها به دیده تردید می‌نگرد،  او به بی بی سی گفت که هوش مصنوعی نمی‌تواند جایگزین افراد شود زیرا فاقد احساسات است. در عین حال، او هشدار داد که این فناوری هنوز در حال رشد است.

وزنیاک گفت: «ما نمی توانیم جلوی فناوری را بگیریم. در نهایت، او معتقد است که افراد می توانند در کنار آن رشد کنند و در شناسایی محتوای جعلی یا کلاهبرداری‌های سایبری بهتر عمل کنند. اخیرا وزنیاک به بیش از هزار نفر از جمله ایلان ماسک پیوست و نامه‌ای سرگشاده را امضا کرد که خواستار توقف شش ماهه توسعه سیستم‌های هوش مصنوعی شده بود.
این نامه به دلیل انتشار GPT-۱، یک نسخه قدرتمندتر و پیشرفته تر از فناوری مورد استفاده توسط ربات چت محبوب ChatGPT، تنظیم شده بود و در آن نگرانی‌ها درباره توسعه سریع هوش مصنوعی ابراز شده بود.

تدابیر بین‌المللی علیه هوش مصنوعی

چهارشنبه, ۲۰ ارديبهشت ۱۴۰۲، ۰۳:۵۳ ب.ظ | ۰ نظر

توسعه ابزار هوش مصنوعی جدید طی ماه‌های اخیر، سبب تشدید نگرانی‌ها در مورد تهدیدات بالقوه این فناوری نوظهور در میان قانون‌گذاران سراسر جهان شده است.

خبرگزاری مهر - گروه دانش و فناوری؛ سیدرضا حسینی: مدتی است که آوازه هوش مصنوعی و پیشرفت‌هایش در سراسر جهان پیچیده و یکی از معروف‌ترین آن‌ها که به‌محض برخورد با کلمه هوش مصنوعی در ذهن تداعی می‌شود چت جی پی تی است؛ اما اکثر اسم‌هایی که با عنوان هوش مصنوعی به گوش ما می‌رسند، در واقع نرم‌افزارهای مبتنی بر هوش مصنوعی هستند.

«ChatGPT» و «Bard» جزو گروه چت‌بات‌ها هستند و «Midjourney» و «Dall.E» از جمله مدل‌های یادگیری ماشینی هستند که برای تبدیل متن به تصویر دیجیتال ساخته شده‌اند.

با گذشت مدتی کوتاه از عرضه عمومی «ChatGPT» و رشد رکورد شکن تعداد کاربران این پلتفرم، مسئله تنظیم‌گری فناوری‌های نوظهور همچون هوش مصنوعی، بار دیگر به اولویت اصلی فعالان این حوزه و دولت‌های سراسر جهان تبدیل شده است. ابراز نگرانی از مضرات این فناوری تا آنجا پیش رفت که جفری هینتون یکی از پیش کسوت‌ها و پدرخوانده هوش مصنوعی به تازگی و پس از آنکه متوجه شد احتمالاً رایانه‌ها از انسان‌ها باهوش‌تر می‌شوند، از شرکت گوگل استعفا داد تا آزادانه درباره خطرات این فناوری صحبت کند.

وی که با ابراز نگرانی درباره خطرات هوش مصنوعی از شرکت گوگل استعفا داده است، گفت: اکنون از کار خود در این رشته پشیمان است.

او در مصاحبه‌ای با نیویورک تایمز درباره ظرفیت این فناوری برای ایجاد تصاویر و متون جعلی اظهار نگرانی کرد و گفت: این فناوری و ابزارهایش دنیایی را به وجود می‌آورند که در آنها انسان‌ها نمی‌توانند واقعیت را تشخیص دهند.

 

قیام کشورها علیه فناوری‌های نوظهور هوش مصنوعی

با همه اینها به عقیده بسیاری از کارشناسان، هوش مصنوعی فناوری آینده‌ساز خواهد بود و درک ما از زندگی را تا حدود زیادی تغییر خواهد داد. از همین روی با روی کار آمدن و شهرت روز افزون چت جی پی تی، سیاستمداران با عزمی راسخ در پی مهار و کنترل آن برآمده‌اند.

از سوی دیگر، غول‌های فناوری مانند مایکروسافت، گوگل و آمازون نیز در حال رقابت تنگاتنگ برای بهره‌برداری حداکثری از مواهب توسعه این فناوری نوظهور هستند و همین امر، مسئله لزوم تنظیم‌گری این حوزه را بیش از پیش برجسته ساخته است. زیرا در صورت عدم کنترل نهادهای قانون‌گذار و تنظیم‌گر بر قوانین رقابت، هوش مصنوعی مولد می‌تواند سبب کسب مزیت و قدرت نامتعارف از سویشرکت‌های بزرگ فناوری شود و این بنگاه‌های اقتصادی را بر جوامع بشری مسلط کند.

تدابیر بین‌المللی علیه هوش مصنوعی جدید

چین؛ از مقابله رویاروی تا چت بات ملی

دولت چین، در راستای مقابله با تهدیدات هوش مصنوعی دو راه حل اساسی اتخاذ کرده است. این کشور در ماه فوریه اعلام کرد که پکن از شرکت‌های پیشرو در ساخت مدل‌های هوش مصنوعی که می‌توانند «Chat GPT» را به چالش بکشند، حمایت خواهد کرد. در ماه آوریل خبرگزاری شینهوا یک بیانیه دولتی بر مبنای نشست فصلی حزب کمونیست منتشر کرد. این بیانیه تأکید می‌کند که چین باید توجه شایانی به توسعه هوش مصنوعی و خلاقیت در این حوزه و مقابله با خطرات پیش‌بینی شده آن داشته باشد. به عقیده برخی کارشناسان این اقدام چین علاوه بر اینکه نشان‌دهنده اولویت چین در تبدیل‌شدن به قدرت اول در حوزه فناوری است، مبین اهمیت «ChatGPT» و لزوم مقابله با قدرت انحصاری این پلتفرم است.

دوم اینکه دولت چین علاوه بر اینکه تلاش دارد تا چت‌بات ملی خود را داشته باشد، تلاش برای تنظیم‌گری هوش مصنوعی مولد را نیز در دستور کار خود قرار داده است. تنظیم‌کننده فضای سایبری چین (CAC) در این راستا از پیش‌نویس اقداماتی برای تنظیم‌گری خدمات هوش مصنوعی رونمایی کرد و در آن از شرکت‌ها خواست که ارزیابی‌های امنیتی خود را قبل از ارائه خدمات به مقامات اعلام کنند. اصول دولت چین در تنظیم‌گری هوش مصنوعی، نظارت بر محتوا، حمایت از حق مالکیت معنوی، مقابله با اطلاعات نادرست، حفظ حریم شخصی و محافظت از داده‌ها و رفع نابرابری است.

 

اولین گام مهم اتحادیه اروپا

اتحادیه اروپا و نهادهای قانون‌گذار آن در بحبوحه محبوبیت و شهرت «ChatGPT» و سایر چت‌بات‌ها و هوش مصنوعی‌های مولد در پی آسیب‌شناسی و مقابله با خطرات احتمالی این فناوری جدید، بر آمدند. در ادامه مروری بر نظرات مختلف و اقدامات انجام‌شده خواهیم داشت.

برخی از قانون‌گذاران اروپا معتقدند می‌توان از مقررات حفاظت از داده‌های عمومی (GDPR)، جهت کنترل هوش مصنوعی و صاحبان آن استفاده کرد. با توجه به اینکه هوش مصنوعی از داده‌ها برای پاسخ‌های خود استفاده می‌کند «GDPR» با اصول حفاظت از داده‌های خود، می‌تواند با هرگونه استفاده از داده‌های کاربران و نقض حریم شخصی مقابله کند.

برخی دیگر از تنظیم گران مانند هلن دیکسون، عضو هیئت نهاد حفاظت از داده‌ها ایرلند، در جلسه‌ای که در پی ممنوعیت موقت «ChatGPT» برگزار شد، معتقد بودند که عجله در تنظیم‌گری هوش مصنوعی مولد بدون درک و شناخت دقیق کارکرد و فرایند آن، مانع تنظیم‌گری مناسب و صحیح خواهد شد.

در نهایت هیئت حفاظت از داده‌های اروپا، با متحد کردن ناظران ملی حفظ حریم خصوصی اروپا، در ماه آوریل اعلام کرد که کارگروهی مخصوص «ChatGPT» راه‌اندازی کرده است که این حرکت را می‌توان اولین گام مهم قاره سبز در جهت تنظیم قوانین مشترک حفظ حریم خصوصی در حوزه هوش مصنوعی دانست؛ به عبارتی دیگر قانون‌گذاران اتحادیه اروپا همچنان در حال گفتگو، بحث و کارشناسی در مورد معرفی قانون هوش مصنوعی اتحادیه اروپا هستند تا حکمرانی حوزه هوش مصنوعی را بااقتدار پیش ببرد. قانون‌گذاران پیشنهاد کرده‌اند که ابزارهای گوناگون هوش مصنوعی را بر اساس میزان ریسک و خطرپذیری، از کم تا غیرقابل‌قبول درجه‌بندی کنند.

بنا به گفته سخنگوی وزیر صنعت و علوم استرالیا از نهاد اصلی مشاوره علمی کشور درباره نحوه برخورد باهوش مصنوعی درخواست مشورت کرده و در حال تحلیل و بررسی گام‌های بعدی خود است.

 

ایالات متحده آمریکا؛ تشکیل کارگروه مقابله با هوش مصنوعی

در راستای جذب میلیونی کاربران به سمت «Chat GPT» و تلاش کشورها جهت تنظیم‌گری آن، کاخ سفید در ماه مارس اعلام کرد که آمادگی شنیدن هر گونه پیشنهادی مبنی بر نحوه برخورد با «Chat GPT» و روش مسئولیت‌پذیر و پاسخگو نگه‌داشتن این فناوری جدید را دارد.

کمی قبل‌تر از آن در ماه می جو بایدن، رئیس‌جمهور ایالات متحده طی درخواستی بر بررسی پیامدهای ناشی از توسعه هوش مصنوعی تأکید کرد و شناخت و مقابله با خطرات آن را برای جامعه، امنیت ملی و اقتصاد ضروری دانست و همچنین افزود: «از نظر من، شرکت‌های فناوری مسئولیت دارند که پیش از عرضه عمومی محصولات خود، از ایمنی آن‌ها اطمینان حاصل کنند.» او از اعضای کنگره خواست که یک قانون حریم خصوصی تصویب کنند. چنین قانونی شامل مواردی مانند محدودیت شرکت‌ها در جمع‌آوری داده‌های شخصی، ممنوعیت تبلیغات برای جامعه هدف کودکان و منع انتشار اطلاعات نادرست و… خواهد بود.

طی آخرین اخبار در آوریل، مایکا بنت، سناتور آمریکایی، لایحه‌ای ارائه کرده است که بر اساس آن کارگروهی برای بررسی سیاست‌های ایالات متحده در زمینه هوش مصنوعی و شناسایی راه‌های مناسب مقابله با هر گونه نقض حریم خصوصی و آزادی‌های مدنی در آمریکا تشکیل شده و روندهای قانونی نحوه توسعه این فناوری مشخص خواهد شد.

وزیر امنیت میهن آمریکا نیز اعلام کرد کارگروه هوش مصنوعی همچنین شیوه استفاده از این فناوری برای انجام بهتر کارها مانند بررسی محموله‌های ورودی به کشور برای ردیابی کالاهای غیرقانونی را مطالعه می‌کند.

وی همچنین خواستار استفاده از هوش مصنوعی جهت ایمن سازی شبکه توزیع برق و سیستم‌های ذخیره آب شد. بیم آن می‌رود که هر دو این زیرساخت‌ها هدف دشمنان قرار گیرند.

مایورکاس اعلام کرد این فناوری به طور گسترده‌ای چشم انداز تهدیدها را تغییر می‌دهد.

کارشناسان امنیتی در واشنگتن مدعی احتمال استفاده دشمنان خارجی از قابلیت‌های هوش مصنوعی برای ضربه‌زدن به امنیت ملی ایالات متحده شدند.

وظیفه این کارگروه بر اساس لایحه منتشر شده، شناسایی نقاط ضعف در فرایند نظارت بر هوش مصنوعی و ارائه پیشنهادهایی برای بهبود و اصلاح رویه‌ها خواهد بود. اعضای این کارگروه اعضای برخی از سازمان‌های دولتی مانند: دفتر مدیریت و بودجه، نهاد ملی استاندارد و فناوری، دفتر سیاست دانش و فناوری و افسران آزادی‌های مدنی و حریم خصوصی از وزارت‌خانه‌های دادگستری، امور خارجه، خزانه‎‌داری، دفاع و سایر دستگاه‌های اجرایی هستند.

بر اساس مفاد لایحه، تشکیل این کارگروه موقتی است و بعد از ۱۸ ماه، گزارش نهایی را ارائه کرده و سپس تعطیل می‌شود.

در پنجم ماه می جو بایدن، رئیس‌جمهور ایالات متحده آمریکا به دنبال لزوم تنظیم‌گری هوش مصنوعی در نشستی با حضور مدیران شرکت‌های هوش مصنوعی از جمله مایکروسافت و گوگل به‌وضوح اعلام کرد که شرکت‌ها موظف‌اند ایمنی پلتفرم‌هایشان را قبل از توسعه آن تضمین کنند. محورهای اصلی این جلسه شامل لزوم شفافیت بیشتر شرکت‌ها در مقابل سیاست‌گذاران، اهمیت ارزیابی این محصولات و نیاز به محافظت از آنان در مقابل حملات مخرب بود. همچنین در این جلسه به نگرانی‌هایی درباره هوش مصنوعی مانند نقض حریم خصوصی، تصمیم‌های غلط در استخدام که منجر به ازبین‌رفتن مشاغل شود و ایفای نقش هوش مصنوعی به‌عنوان ناشر اطلاعات نادرست اشاره شد.

 

بریتانیا؛ مسئولیت پذیر کردن شرکت‌ها از طریق رویکردهای غیرسختگیرانه

دولتمردان بریتانیایی در ماه آپریل اعلام کردند هوش مصنوعی علاوه بر مزایایی که در رشد و پیشرفت بشر دارد ممکن است مشکلاتی را درباره حریم خصوصی، حقوق بشر یا ایمنی افراد ایجاد کند. آن‌ها مدعی شدند که قوانین سخت‌گیرانه و سرکوبگر را راه‌حل مناسبی نمی‌دانند و قصد دارند رویکردهای منعطف‌تر و بر اساس اصولی مانند ایمنی، شفافیت، انصاف و مسئولیت‌پذیری را در پیش گیرند.

کمی بعد استفان آلموند، مدیر اجرایی ریسک‌های امنیت داده از دفتر کمیسری اطلاعات بریتانیا هوش مصنوعی مولد بخصوص «Chat GPT» متعلق به شرکت «OpenAI» را خطری بالقوه برای امنیت داده دانست و بر اهمیت چگونگی استفاده این فناوری از داده‌های شخصی تأکید کرد. او در ادامه به لزوم متعهدشدن سازمان‌هایی که از هوش مصنوعی استفاده می‌کنند به حفاظت از داده‌های شخصی اشاره کرد و پیامدهای اهمیت‌ندادن هوش مصنوعی به حریم شخصی را بزرگ و سخت دانست.

سرانجام بریتانیا در ماه مارس اعلام کرد که قصد دارد به‌جای ایجاد یک نهاد تنظیم‌گر جدید، مسئولیت مدیریت هوش مصنوعی را بین تنظیم‌کننده‌های حقوق بشر، سلامت و ایمنی و رقابت تقسیم کنند.

 

ایتالیا؛ فیلترینگ و مشروط سازی

ایتالیا در ماه مارس، «ChatGPT» را موقتاً ممنوع اعلام کرد، زیرا مقامات تنظیم‌گر حفاظت از داده‌ها نگرانی‌هایی را در مورد نقض حریم خصوصی، نقض مقررات «GDPR» و کاربران زیر ۱۳ سال داشتند. همچنین سازمان دیده‌بان ایتالیا در ۲۰ مارس گفت که هیچ مبنای قانونی برای توجیه «جمع‌آوری و ذخیره انبوه داده‌های شخصی» به‌منظور «آموزش» الگوریتم‌های زیربنایی عملکرد پلتفرم وجود ندارد.

ایتالیا از شرکت سازنده هوش مصنوعی جدید خواست ابزاری فراهم کند تا همه افرادی که داده‌هایشان در چت جی پی تی مورد استفاده است، بتوانند درخواست تصحیح یا حذف داده‌های شخصی خود که به‌طور نادرست توسط این سرویس ایجاد شده‌اند را مطرح کنند. OpenAI همچنین باید به غیر کاربران اجازه دهد تا «به روشی ساده و در دسترس» با پردازش داده‌های شخصی خود برای اجرای الگوریتم‌های چت جی پی تی مخالفت کنند.

همچنین از این شرکت خواسته شده تا پایان سپتامبر یک سیستم تأیید سن را راه اندازی کند تا دسترسی کاربران زیر ۱۳ سال به چت جی پی تی ممنوع شود.

کمتر از یک ماه پس از اعمال ممنوعیت‌هایی برای ChatGPT به دلیل نگرانی‌های مربوط به حریم خصوصی توسط ایتالیا، دولت این کشور در روز جمعه نسبت به رویکرد خود درباره چت‌بات OpenAI عقب نشینی کرد. تصمیم جدید ایتالیا پس از پاسخگویی این استارتاپ به نگرانی‌هایی که درباره حریم خصوصی و امنیت داده‌های کاربران در پلتفرم هوش مصنوعی آنها مطرح شده بود، اتخاذ شده است.

تدابیر بین‌المللی علیه هوش مصنوعی جدید

آلمان و اقدامی مشابه ایتالیا

همچنین در روزهای اخیر ۴۲ انجمن و اتحادیه تجاری آلمانی که نماینده بیش از ۱۴۰ هزار مؤلف و بازیگر هستند از اتحادیه اروپا خواسته اند سریع‌تر پیش نویس قوانین هوش مصنوعی را فراهم کند. آنها به تهدید «چت جی پی تی» برای کپی رایت آثارشان اشاره کردند.

در این نامه به اهمیت نگرانی‌های روزافزون درباره هوش مصنوعی مولد مانند چت جی پی تی که می‌تواند از انسان‌ها تقلید کند و متن و تصویر بسازد، نیز پرداخته شده است.

در بخشی از این نامه آمده است: استفاده غیرمجاز از محتوای آموزشی محافظت شده، پردازش غیرشفاف آن و جایگزین کردن قابل پیش بینی منابع با محصول خروجی هوش مصنوعی مولد سوالاتی بنیادین درباره مسئولیت پذیری و پاداش ایجاد می‌کند که باید قبل از ایجاد آسیب‌های جبران ناپذیر، به آنها پرداخته شود. هوش مصنوعی مولد باید در مرکز هر قانون مربوط به بازار هوش مصنوعی باشد.

از سوی دیگر به نظر می‌رسد آلمان در نظر دارد به دلیل نگرانی در مورد حریم خصوصی، استفاده از چت جی‌پی‌تی را ممنوع کند. به گزارش ایندیپندنت، اولریش کلبر، رئیس حفاظت از داده‌های کشور آلمان، به روزنامه هندلسبلات (Handelsblatt) گفت: «به دنبال ممنوعیت چت جی‌پی‌تی در ایتالیا، ناظران آلمانی با همتایان ایتالیایی خود در ارتباط هستند و حالا این احتمال وجود دارد که چنین اقدامی در آلمان نیز صورت بگیرد.»

 

ژاپن؛ اجلاس G۷ و بیانیه پایانی با محوریت هوش مصنوعی

وزرای کشورهای عضو گروه ۷ معتقدند باید قوانینی مبتنی بر ریسک برای هوش مصنوعی به کار گیرند.

این در حالی است که قانونگذاران اروپایی سعی دارند هرچه سریع‌تر یک قانون مرتبط با ابزارهای نوظهوری مانند چت جی پی تی وضع کنند البته طبق بیانیه مشترک وزرای گروه ۷، قانون مذکور باید یک محیط باز و توانمند برای توسعه فناوری‌های هوش مصنوعی را حفظ کند و مبتنی بر ارزش‌های دموکراتیک باشد.

این بیانیه در پایان اجلاس ۲روزه گروه در ژاپن صادر شده است.

هر چند به اعتقاد وزرا ممکن است ابزارهای سیاستگذاری برای دستیابی به چشم اندازی یکسان و هدف ایجاد یک سیستم هوش مصنوعی ایمن بین کشورهای عضو این گروه متفاوت باشد، اما توافق مذکور نقطه عطفی در زمینه نظارت کشورهای پیشرفته بر هوش مصنوعی در بحبوحه اوج گیری نگرانی‌های حریم خصوصی و ریسک‌های امنیتی است.

مارگارت وستاگر کمیسر رقابت اتحادیه اروپا پیش از توافق در این باره گفت: نتیجه گیری اجلاس گروه ۷ نشان می‌دهد ما در زمینه قانونگذاری برای هوش مصنوعی تنها نیستیم.

در بخش دیگری از بیانیه وزرای این گروه آمده است: ما تصمیم داریم در آینده مذاکرات درباره هوش مصنوعی مولد را در اجلاس‌های گروه ۷ ادامه دهیم. در این مذاکرات احتمالاً موضوعاتی مانند نظارت، چگونگی حفاظت از حقوق مالکیت معنوی از جمله کپی رایت، ترویج شفافیت، بررسی اطلاعات اشتباه (از جمله اطلاعاتی که توسط نیروهای خارجی دستکاری می‌شود) مورد بحث قرار می‌گیرد.

در این میان ژاپن که رئیس گروه ۷ در سال جاری است، روشی آسانگیرانه تر در خصوص توسعه دهندگان هوش مصنوعی در پیش گرفته و خواستار پشتیبانی عمومی و صنعتی از توسعه هوش مصنوعی شده است.

ژاپن امیدوار است تا گروه ۷ را به یک فرایند نظارتی انعطاف پذیر به جای قوانینی سختگیرانه در خصوص هوش مصنوعی متقاعد کند.

 

روسیه؛ گیگا چت بومی

بانک روسی «اسبربانک» (Sberbank) رقیب چت جی پی تی به نام «گیگاچت» را ارائه کرده است. این فناوری در حال حاضر در وضعیت آزمایشی است و افراد با استفاده از دعوتنامه می‌توانند از آن استفاده کنند.

به گفته اسبربانک نکته متمایز گیگاچت توانایی برقراری ارتباط هوشمندانه‌تر به زبان روسی نسبت به سایر شبکه‌های عصبی خارجی است.

اسبربانک یا بانک پس‌انداز فدراسیون روسیه بزرگترین بانک در روسیه و اروپای شرقی است که در سال‌های اخیر سرمایه گذاری عظیمی در این فناوری کرده است. هدف این بانک کاهش اتکای کشور به واردات است زیرا پس از حمله روسیه به اوکراین کشورهای غربی صادرات را به شدت کاهش داده و تحریم‌های علیه آن وضع کرده اند.

 

ضرورت پیوست نگاری برای فناوری‌های نوظهور

«علی زرودی»، پژوهشگر فضای مجازی و مدرس دانشگاه، در گفتگو با خبرنگار مهر درباره تهدیدات بالقوه هوش مصنوعی گفت: هوش مصنوعی مانند بسیاری از فناوری‌های نوظهور گذشته، گرچه مزایای شگفت‌انگیزی دارد و فرصت‌های بی‌بدیلی می‌آفریند؛ اما جوامع بشری را با تهدیدات بزرگی مواجه می‌کند. یکی از مهمترین این تهدیدات نقض امنیت داده و حریم خصوصی است.

وی افزود: تهدید دیگر بیکارشدن بخشی از نیروی کار فعلی جوامع است. افزایش نظارت دولت‌ها و شرکت‌های صاحب فناوری بر کاربران، افزایش دستکاری در افکار عمومی به واسطه تسهیل تولید و انتشار محتوای نادرست و جعلی (مانند ساخت ویدئوی جعلی از سخنرانی یک شخصیت مشهور)، پیچیده‌تر شدن حملات سایبری، جاسوسی و باج‌افزارها نیز از دیگر تهدیدات این فناوری محسوب می‌شوند.

پژوهشگر فضای مجازی گفت: البته هوش مصنوعی برای تقابل با این تهدیدات هم یاریگر انسان‌ها خواهد بود؛ به عنوان مثال تقویت «دفاع سایبری» از مزایای این فناوری محسوب می‌شود. نکته دیگر این است که پیش‌بینی این تهدیدات و اتخاذ تدابیر تنظیم‌گرانه برای مقابله با آن‌ها مهم و ضروری است.

وی در ادامه و در مورد دلیل تمرکز نهادهای تنظیم‌گر جهان بر حوزه فناوری هوش مصنوعی افزود: وظیفه قانون‌گذاران و به طور کلی حکمرانان یک جامعه، تضمین منافع و مصالح عمومی آن جامعه است. هدف محوری شرکت‌های هوش مصنوعی مانند سایر شرکت‌ها در بخش خصوصی، بیشینه کردن سود تجاری است. بنابراین این شرکت‌ها به دنبال خلاقیت و نوآوری روزانه هستند. از آنجا که مطابق نظریات جامعه شناختی، سرعت تغییرات ارزشی و هنجاری در یک جامعه بسیار کمتر از سرعت تغییرات فناوری در آن جامعه است (که اصطلاح تأخر فرهنگی/Cultural Lag را برای این پدیده استفاده می‌کنند) تحولات روزانه فناوری‌ها موجب اختلال در سیستم ارزشی جوامع می‌شود.

زرودی افزود: اگر این تحول فناورانه، به صورت وارداتی باشد، شدت تأخر فرهنگی و اختلال ذکر شده بیشتر خواهد بود. تحولات سیستم ارزشی جامعه پیامدهایی برای سایر سیستم‌ها همچون سیاست، فرهنگ، اقتصاد، تربیت و… دارد و منافع عمومی را به خطر می‌اندازد. قانون‌گذار به ویژه در کشورهایی که واردکننده فناوری هستند، تلاش می‌کند تا با محدودکردن شرکت‌های فناوری از اختلالات ذکر شده بکاهد. به عنوان مثال بریتانیا و اتحادیه اروپا که در زمینه تحولات فناوری از شرکت‌های آمریکایی عقب افتاده‌اند و محصولات فناورانه داخلی آن‌ها نمی‌تواند با محصولات شرکت‌های آمریکایی رقابت کند، به مقررات‌گذاریِ حداکثری برای شرکت‌های آمریکایی روی آورده‌اند.

وی در این مورد گفت: فناوری‌های نوظهور همواره می‌تواند شتاب پیشرفت اقتصادی را بیشتر کند مشروط به آنکه رویکرد فعالانه (بدون تأخیر، آینده‌نگرانه و مبتنی بر طراحی بومی) وجود داشته باشد و زیرساخت‌های حقوقی، اقتصادی، اجتماعی و سیاسی لازم برای توسعه آن فناوری مهیا شود. با درنظر گرفتن چنین شرایطی، فناوری نوظهور می‌تواند در مسیر پیشرفت، جهش ایجاد کند.

هر یک روز تأخیر ما برای ورود به طراحی اکوسیستم بومی یک فناوری منجر به این می‌شود که در آن فناوری عقب‌مانده و بدون قدرت باشیم. اقتضای حکمرانی فعال، غنیمت شمردن فرصت‌هاست

پژوهشگر فضای مجازی و مدرس دانشگاه اظهار داشت: تاکنون چنین مواجهه مطلوبی با فناوری‌های نوظهور نداشته‌ایم. اقدامات گذشته ما منفعلانه بوده است. یا جلوی یک فناوری را گرفته‌ایم یا در نهایت آن را وارد کرده و برایش پیوست فرهنگی و زیست محیطی و… نوشته‌ایم. پیوست‌نگاری برای فناوری‌های نوظهور حتی اگر نوع پیوست‌نگاری پیشینی (یعنی پیش از ورود فناوری به کشور) باشد، اقدامی منفعلانه است. اقدام فعالانه در مواجهه با فناوری جدید، طراحی بومی باشد ضروری است. چند سال قبل که ما از ضرورت طراحی بومی اینترنت اشیا صحبت می‌کردیم، برخی این موضوع را باور نداشتند تا اینکه در دو سال گذشته، آفکام در رویکرد جدید خود برای توسعه سواد رسانه‌ای، اقدام به تعامل با پلتفرم‌ها کرده است تا طراحی پلتفرم‌ها متناسب با اصول سواد رسانه‌ای مدنظر آفکام باشد. درواقع مقررات و ارزش‌ها را در مرحله طراحی فناوری پیاده‌سازی می‌کند. بعد از این اقدام آفکام، حرف ما نیز درخصوص طراحی بومی اینترنت اشیا شنیده شد. امروز هم همین موضوع درمورد هوش مصنوعی و سایر فناوری‌ها وجود دارد. هر یک روز تأخیر ما برای ورود به طراحی اکوسیستم بومی یک فناوری منجر به این می‌شود که در آن فناوری عقب‌مانده و بدون قدرت باشیم. اقتضای حکمرانی فعال، غنیمت شمردن فرصت‌هاست.

به گزارش مهر، هوش مصنوعی‌هایی مانند «ChatGPT» مزایای بسیاری دارند، این پلتفرم‌ها می‌توانند سرعت رشد و توسعه علم را بالا برده و به تجارت، اکتشاف، آموزش، سیاست‌گذاری و بسیاری از مسائل خرد و کلان زندگی بشر رونق بیشتری داده و کیفیتشان را بالا ببرد؛ اما بی‌اهمیتی به معایب آن و اقدام‌نکردن به‌موقع برای تنظیم‌گری درست و به‌قاعده می‌تواند آثار جبران‌ناپذیری داشته باشد که نه‌تنها خود آسیب می‌زنند بلکه مزایای هوش مصنوعی را هم عملاً بی‌فایده خواهند کرد.

مراقب سوالاتی که از ChatGPT می‌کنید باشید

دوشنبه, ۱۸ ارديبهشت ۱۴۰۲، ۰۵:۰۲ ب.ظ | ۰ نظر

غزال زیاری- خبرآنلاین - به‌صورت پیش‌فرض، OpenAI از پیغام‌هایی که شما برای ChatGPT ارسال می‌کنید، برای آموزش و پیشرفت مدل‌هایش بهره می‌برد ولی کاربران این امکان را دارند که با بهره‌گیری از فعال کردن "حالت ناشناس" در این پلتفرم، مانع از انجام این کار شوند.

با عرصه و ارائه فناوری‌های جدید در دنیا، مدت زمانی طول می‌کشد تا مسائل متعددی از جمله حریم خصوصی و امنیتی آن تعریف و تعیین شود و حالا این موضوع درمورد ChatGPT نیز صادق است. این مدل زبانی مولد متن که با بهره‌گیری از هوش مصنوعی کار می‌کند، در نوع خود بی‌نظیر و خیره‌کننده است؛ اما حالا تردیدهایی در مورد نحوه جمع‌آوری و پردازش داده‌های ما توسط این ابزارها ایجاد شده است.

توسعه‌دهندگان ChatGPT، این مدل زبانی بزرگ را بر پایه حجم وسیعی از متون در دسترس و موجود در اینترنت تعلیم داده‌اند. ولی این ربات چت‌بات، علاوه بر این داده‌ها، از گفتگوهایی که با شما دارد نیز برای یادگیری استفاده می‌کند. پس اگر می‌خواهید از حریم خصوصی‌تان محافظت کنید، باید بدانید که شرایط و گزینه‌های پیش رو چیست؛ تا چه اندازه باید به ChatGPT اطلاعات بدهید و چه بایدها و نبایدهایی در این مسیر وجود دارد.

در این مقاله سه نکته مشخص را به شما یادآوری می‌کنیم:

فعال کردن حالت ناشناس در ChatGPT

به‌صورت پیش‌فرض، OpenAI از پیغام‌هایی که شما برای ChatGPT ارسال می‌کنید، برای آموزش و پیشرفت مدل‌هایش بهره می‌برد ولی کاربران این امکان را دارند که با بهره‌گیری از فعال کردن "حالت ناشناس" در این پلتفرم، مانع از انجام این کار شوند.

برای فعال کردن این حالت، ChatGPT را در مرورگر خود باز کنید، بر روی نام کاربری خود در سمت چپ کلیک کرده و وارد بخش تنظیمات شوید. در کنار گزینه Data Controls، روی Show کلیک کرده و گزینه Chat History & Training را خاموش کنید.

از حالا به بعد، هر زمانی که برگه مرورگر خود را ببندید، گزارش گفتگوهای شما با ChatGPT از حسابتان ناپدید می‌شود؛ البته این بدان معنا نیست که این گفتگوها کاملا از بین بروند ( چرا که OpenAI، تاریخچه گفتگوها را برای ۳۰ روز نگاه می‌دارد تا برای "نظارت بر سوءاستفاده‌های احتمالی" آنها را در اختیار داشته باشد و بعد از سی روز این گفتگوها پاک خواهند شد.)

در منوی Data Controls، یک گزینه به نام Export Data نیز در اختیار شماست. استفاده از این گزینه تاثیری بر نحوه استفاده OpenAI از اطلاعات شما و یا پاک کردن اطلاعاتی که تا حالا جمع‌آوری کرده ندارد؛ بلکه به شما در مورد آنچه OpenAI از شما می‌داند، ایده بهتری می‌دهد. این ممکن است شامل گفتگوهایی که پاک نکرده‌اید و یا بازخوردهایی که به سوالات ChatGPT داده‌اید، باشد.

اگر موضوعی است که شما با آن احساس راحتی نمی‌کنید، می‌توانید به صورت دستی، تاریخچه گفتگوها را پاک کنید. به صفحه ChatGPT خود برگردید، بر روی نام کاربری‌تان کلیک کرده و سپس وارد بخش Clear Conversations بشوید تا به یک باره کل گفتگوها را پاک کنید. یا می‌توانید روی علامت سطل زباله در کنار هر گفتگوی خاص کلیک کنید تا آن گفتگو را به کلی پاک کنید.

ChatGPT قادر نخواهد بود تا از متن گفتگوهای پاک شده، برای یادگیری استفاده کند ولی بسته به مدت زمانی که سابقه گفتگوهای شما موجود باشد، ربات چت ممکن است قبل از آنکه شما تصمیم به پاک کردن‌شان بگیرید، از آنها استفاده کند. پس برای جلوگیری از این اتفاق، یا درصورتی که فردی به کامپیوتر شما دسترسی پیدا کرده و بخواهد تا به گفتگوهای شما با ChatGPT نگاهی بیندازد، این فکر خوبی است که هر چند وقت یک بار، تاریخچه گفتگوهایتان را سر و سامان بدهید.

در نهایت، اگر دیگر نخواستید تا با ChatGPT صحبت کنید، همیشه این امکان برایتان فراهم است که حساب کاربری‌تان را پاک کنید که این کار را می‌توانید از پنل Data controls انجام دهید.

مراقب صحبت‌هایتان با ChatGPT باشید

ChatGPT ممکن است به‌صورت طبیعی و روزمره پاسخگوی شما باشد؛ ولی هرگز به هوش مصنوعی مثل یک دوست یا مشاور اعتماد نکنید. اسناد پشتیبانی رسمی این پلتفرم به کاربران توصیه می‌کند که هیچ اطلاعات شخصی را با چت‌بات به اشتراک نگذارند. چون مشخص کردن اینکه در آینده به چه ترتیب از اطلاعات شما استفاده شده و مورد تجزیه و تحلیل قرار خواهد گرفت، سخت است.

خط مشی رازداری و حریم خصوصی چت بات، گفته که OpenAI داده‌هایی مثل گفتگوها و ویژگی‌هایی که با آن سروکار دارید را ثبت می‌کند و ممکن است اطلاعات جمع‌آوری شده از جمله آمار کاربران را با اشخاص ثالث به اشتراک بگذارد. مثلا کمپانی OpenAI، در واکنش به درخواست‌های قانونی مجریان قانون، ممکن است اطلاعات شخصی کاربران مثل آدرس ایمیل آنها و یا داده‌های موقعیت مکانی‌شان را در اختیار شرکت‌های وابسته قرار دهند. ولی حتی اطلاعات ارائه شده در این رابطه نیز مبهم است و مشخص نیست که شرکت‌های وابسته‌ای که OpenAI ممکن است اطلاعات‌مان در اختیارشان قرار بگیرد، چه شرکت‌هایی هستند؟

این یک خط مشی رازداری استاندارد است و قوانین ChatGPT هم مشابه با اکثر پلتفرم‌های آنلاین است: در نتیجه هر چه اطلاعات کمتری به اشتراک بگذارید، بهتر خواهد بود. این ماجرا نه تنها شما را در برابر اقدامات مشکوک حریم خصوصی که OpenAI ممکن است در آینده پیش بیاید محافظت می‌کند، بلکه از شما در مقابل هرگونه باگ و هک شدن‌های احتمالی نیز مراقبت خواهد کرد. به عنوان مثال، قطعی اخیر ChatGPT منجر به این شد که افراد تیتر تاریخچه گفتگوهای کاربران فعال دیگر را ببینند.

اگر هر گونه اطلاعات عمومی از شما در اینترنت وجود داشته باشد، ChatGPT قادر خواهد بود تا به دیگران کاربران، درباره شما اطلاعاتی بدهد و اگر این موضوع برایتان هنوز ترسناک به نظر نمی‌رسد، به این فکر کنید که اگر روزی اشتباهاتی رخ دهد، چه خواهد شد. اگر قصد دارید تا موارد نادرست را اصلاح کرده یا تنها مانع از آن شوید که ChatGPT اطلاعاتی از شما داشته باشد، می‌توانید یک فرم خاص را پر کرده و یا از طریق ایمیل dsar@openai.com با کمپانی OpenAI تماس بگیرید و یا در سایت این پلتفرم اطلاعات بیشتری کسب کنید.

درمورد برنامه‌های شخص ثالث ChatGPT محتاط باشید

تا اینجا هر آنچه باید در هنگام استفاده از پلتفرم ChatGPT بدانید را گفتیم؛ اما این تنها جایی نیست که با ربات‌های چت بات مواجه می‌شوید. کمپانی OpenAI به اپلیکیشن‌ها و پلاگ-این‌های شخص ثالث نیز اجازه می‌دهد تا برپایه این پلتفرم کار کنند و در صورت استفاده از هریک از آنها، باید در مورد مجموعه تازه‌ای از مسائل حریم خصوصی و امنیتی نیز فکر کنید.

وقتی بحث استفاده از یک اپلیکیشن یا افزونه مرورگرهایی که برپایه ChatGPT کار می‌کنند، مطرح می‌شود، باید دقیقا همان دقتی که در استفاده از هر ابزار شخص ثالث دیگر اعمال می‌کنید را مدنظر قرار دهید: اجازه‌هایی که از شما گرفته می‌شود را بررسی کنید؛ Privacy Policy (خط مشی رازداری) و شرایط و ضوابط را مطالعه کنید و درباره هزینه‌های مرتبط، چه هزینه اشتراک باشد و چه پرداخت‌های درون برنامه‌ای مطلع شوید.

به محض آنکه چیزی مثل ChatGPT به محبوبیت برسد، کلاهبرداران و هکرها نیز به سراغش می‌آیند. از همین رو توصیه می‌شود که همیشه درباره پیشینه توسعه دهنده پشت هر ابزار ChatGPT که از آن استفاده می‌کنید، اطلاعاتی کسب کنید.

باید این را بدانید که قابل اعتمادترین برنامه‌ها ، تنظیمات حریم خصوصی و امنیتی خاص خود را دارند که می‌توانید شخصا آنها را تنظیم کنید.

آموزش چت جی‌پی‌تی با داده کاربران متوقف شد

يكشنبه, ۱۷ ارديبهشت ۱۴۰۲، ۰۶:۱۳ ب.ظ | ۰ نظر

مدیر ارشد اجرایی سازنده چت جی پی تی اعلام کرد از این پس از داده های API مشتریان برای آموزش های مدل هوش مصنوعی زبانی خود استفاده نمی کند. زیرا مشتریان از این روند ناراضی بوده اند.

به گزارش خبرگزاری مهر به نقل از سی ان بی سی، به گفته سم آلتمن مدیر ارشد اجرایی «اوپن آ.آی»، این شرکت برای مدتی مدل های زبانی خود مانند چت جی پی تی را با داده های خریداری شده کاربران آموزش می داد.

او در مصاحبه ای گفت: مشتریان به وضوح نمی خواهند سیستم های ما با داده هایشان آموزش یابد، بنابراین ما برنامه خود را تغییر دادیم و این کار را انجام نمی دهیم.

در همین راستا شرایط خدمات «اوپن آ. آی» در یکم مارس بی سروصدا تغییر کرد. آلتمن در این باره افزود: ما براساس هیچ داده API سیستم هایمان را آموزش نمی دهیم. اکنون مدتی است که این کار را انجام نمی دهیم.

APIها درحقیقت چهارچوب هایی هستند که به مشتریان اجازه می دهند به طور مستقیم به نرم افزار اوپن آ. آی متصل شوند.

مشتریان تجاری این شرکت که مایکروسافت، سلز فورس و اسنپ چت را شامل می شوند، احتمالا از قابلیت هایAPI بهره می برند.

اما سیاست جدید حریم خصوصی و حفاظت از داده اوپن آ. آی فقط شامل مشتریانی می شود که از سرویس هایAPI استفاده می کنند. در شرایط استفاده آپدیت شده شرکت آمده است: ما احتمالا از محتوای سرویس های دیگر به غیر از API کاربران استفاده می کنیم.

این امر ممکن است شامل متنی باشد که کارمندان در چت بات چت جی پی تی وارد می کنند. آمازون اخیرا به کارمندانش هشدار داده داده های محرمانه را در چت جی پی تی وارد نکنند زیرا ممکن است داده ها در پاسخ های این چت بات ظاهر شود.

تغییر مذکور در حالی اجرا می شود که صنایع با وجوه مختلف مدل های زبانی بزرگ جایگزین محتوای تولید انسان روبرو می شوند.

از سوی دیگر مدیران ارشد اجرایی شرکت ها نگران تاثیر چت جی پی تی و برنامه های مشابه بر مالکیت معنوی شان هستند.

اعتصاب نویسندگان هالیوود: هوش مصنوعی سارق است

يكشنبه, ۱۷ ارديبهشت ۱۴۰۲، ۰۴:۲۴ ب.ظ | ۰ نظر

انجمن نویسندگان آمریکا به دنبال محدود کردن استفاده از هوش مصنوعی برای نوشتن فیلمنامه‌ها است و در این راستا نویسندگان دست به اعتصاب زدند.
به گزارش فارس به نقل از سی‌ان‌ان، اختلاف بر سر هوش مصنوعی یکی از چندین موضوعی است که نویسندگان سینما و تلویزیون هالیوود را به اعتصاب کشاند و اولین توقف کار در 15 سال گذشته را رقم زد.

دهه‌ها است نویسندگان هالیوود  فیلمنامه‌های علمی تخیلی می‌نویسند که نشان می‌دهد ماشین‌هایی دنیا را در دست گرفته‌اند. اکنون، آنها برای اینکه مطمئن شوند ربات‌ها بی کارشان نمی‌کنند اعتصاب کردند.

اختلاف بر سر هوش مصنوعی یکی از چندین موضوعی است که نویسندگان سینما و تلویزیون هالیوود را به اعتصاب سوق داد. هوش مصنوعی در هالیوود، در رفع چین و چروک صورت مجریان مسن، حذف فحاشی بیش از حد دیالوگ بازیگران و کمک به ساخت فیلم‌های کوتاه انیمیشن مفید بوده است. علاوه بر این، برخی از نویسندگان نیز شروع به بررسی استفاده از هوش مصنوعی برای ساخت فیلمنامه ها کرده اند.

اما نویسندگان می ترسند که توسط هوش مصنوعی کنار گذاشته شوند یا در اولویت های بعدی قرار گیرند. به عنوان مثال، استودیوها به جای اینکه برای نوشتن پیش نویس اول نویسندگان را استخدام کنند، شاید آنها را برای انجام پیش نویس دوم به کار گیرند که هزینه کمتری دارد.

 انجمن نویسندگان آمریکا پیشنهادی ارائه کرد مبنی بر اینکه هر چیزی که توسط یک سیستم هوش مصنوعی مانند چت‌جی‌پی‌تی ایجاد می شود، نباید به عنوان مطالب ادبی در نظر گرفته شود. در اصل، اگر یک مدیر استودیو یک فیلمنامه تولید شده توسط هوش مصنوعی را برای بازبینی در اختیار نویسنده قرار دهد، نمی‌تواند به نویسنده با نرخ پایین‌تری برای بازنویسی کار دستمزد بدهد.

این اتحادیه همچنین مدعی است که از فیلم نامه های فعلی نباید برای آموزش هوش مصنوعی استفاده شود، زیرا ممکن است منجر به سرقت مالکیت معنوی شود.

آن ها می خواهند که هوش مصنوعی از کسب و کار نوشتن فیلمنامه دور باشد و سعی در جایگزینی نویسندگان نکند.