ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

  عبارت مورد جستجو
تحلیل وضعیت فناوری اطلاعات در ایران

۵۴۸ مطلب با کلمه‌ی کلیدی «هوش مصنوعی» ثبت شده است

تحلیل


ChatGPT جایگزین رادیولوژیست‌ها می‌شود؟

شنبه, ۳۰ ارديبهشت ۱۴۰۲، ۰۳:۵۸ ب.ظ | ۰ نظر

پژوهشگران بیمارستان تورنتو در کانادا با آزمایش بر روی هوش مصنوعی ChatGPT دریافتند این چت بات میتواند به عنوان رادیولوژیست عمل نماید.
به گزارش سایبربان، پژوهشگران ،با آزمایش بر روی مدل هوش مصنوعی چت جی پی تی (ChatGPT)دریافتند که عملکرد آن قابل قبول میباشد اما برخی از اظهارات بدست آمده، غیرمنطقی و نادرست بنظر می‌رسد و هنوز آماده جایگزینی با رادیولوژیست‌ها نیست.
این چت‌بات در یک آزمون ۱۵۰ سوالی که توسط گروه‌های رادیولوژی در کانادا و ایالات متحده طراحی شده بود، ۸۱ درصد امتیاز کسب نمود که بسیار بالاتر از حداقل درصد قبولی(۷۰ درصد) بود.
با افزایش استفاده از چت جی پی تی (ChatGPT )در بخش‌های مختلف، پژوهشگران دانشگاه پزشکی تصویربرداری تورنتو نیز به این فکر افتادند که زمان آن رسیده است که توانایی‌های این چت‌بات را در رادیولوژی نیز آزمایش کنند.
پژوهشگران یک آزمون ۱۵۰ سوالی برای  چت جی پی تی (ChatGPT ) طراحی کردند، دقیقاً مانند آنچه که گروه‌های رادیولوژی در کانادا و ایالات متحده برای دانشجویان این رشته انجام می‌دهند. از آنجایی که این ربات هوش مصنوعی نمی‌تواند تصاویر را به عنوان ورودی پردازش کند، پژوهشگران فقط متن در سوالات قرار دادند که شامل سوالات پایه و مفهومی و سوالات تخصصی بود.
راجش بایانا، رادیولوژیست و سرپرست فناوری در بیمارستان تورنتو گفت: در ابتدا از پاسخ‌های دقیق و مطمئن چت جی پی تی (ChatGPT ) به برخی سؤالات چالش‌ برانگیز در مورد رادیولوژی حیرت زده شدیم، اما سپس به همان اندازه از اظهارات غیرمنطقی و نادرست آن به برخی دیگر از سوالات متعجب شدیم.

هوش مصنوعی این پتانسیل را دارد که به رادیولوژیست ها در کارشان کمک کند، اما بعید است که در آینده نزدیک جایگزین آنها شود. الگوریتم‌های هوش مصنوعی را می‌توان برای تجزیه و تحلیل تصاویر پزشکی و شناسایی ناهنجاری‌ها آموزش داد، که بتواند به رادیولوژیست‌ها در شناسایی سریع‌تر و دقیق‌تر مشکلات کمک کند. با این حال، تفسیر تصاویر پزشکی و انتخاب گزینه های درمانی مناسب نیاز به دانش و تخصص پزشکی بالایی دارد که به بهترین وجه توسط رادیولوژیست انسانی ارائه میشود.

توجه به این نکته مهم است که هوش مصنوعی باید به عنوان ابزاری برای تقویت کار رادیولوژیست ها به جای جایگزینی آنها استفاده شود. هوش مصنوعی می تواند به رادیولوژیست ها کمک کند تا در کار خود کارآمدتر و دقیق تر باشند، اما نمی تواند جایگزین قضاوت پزشکی و مهارت های تصمیم گیری یک رادیولوژیست آموزش دیده شود.

خالق ChatGPT در سنای آمریکا: مقررات وضع کنید

چهارشنبه, ۲۷ ارديبهشت ۱۴۰۲، ۰۲:۰۵ ب.ظ | ۰ نظر

«سم آلتمن» مدیر شرکت «اوپن ای‌آی» (Open AI) روز سه‌شنبه با حضور در یک کمیته فرعی قضایی در مجلس سنای آمریکا به منظور بررسی مخاطرات فناوری‌ نوین هوش مصنوعی، از قانونگذاران این کشور خواست که فناوری هوش مصنوعی را با مقررات خاصی نظام‌مند کنند.

به گزارش گروه علم و آموزش ایرنا ، آلتمن در آغاز سخنان خود گفت: ما بر این گمان هستیم که مداخلات قانونگذارانه و تنظیم‌کننده دولت‌ها برای کاهش خطرات مدل‌هایی که روز به روز قدرتمندتر می‌شوند حیاتی خواهد بود.

حضور آلتمن در سنای آمریکا در حالی است که ابزار «بات گفت‌وگوی» شرکت او موسوم به «چت‌جی‌پی‌تی» (ChatGPT) سر و صدای زیادی به پا کرده و موجب تشدید رقابت‌های حوزه فناوری در زمینه هوش مصنوعی شده است؛ برخی از قانونگذاران آمریکایی و مقامات کشورهای مختلف در خصوص خطرات ناشی از این فناوری ابراز نگرانی کرده‌اند.

بررسی مخاطرات هوش مصنوعی در جلسه سنای آمریکا با مدیر «اوپن ای‌آی»

«چت جی‌پی‌تی» و سایر برنامه‌های مشابه می‌توانند پاسخ‌های بسیار شبیه پاسخ‌های انسانی به پرسش‌های مختلف ارائه کنند که البته هنوز ممکن است تا حد زیادی نادرست باشند. آلتمن 38 ساله به نوعی به سخنگوی این صنعت نوظهور تبدیل شده است. او ابایی از پرداختن به مسائل اخلاقی مرتبط با هوش مصنوعی نداشته و خواستار قانونگذاری بیشتر در این زمینه شده است.

وی از سویی گفت که اهمیت این فناوری جدید می‌تواند به بزرگی و اهمیت ظهور «صنعت چاپ» بوده و نویدبخش آغاز عصر تولیدات جدید باشد، اما از سوی دیگر بر وجود خطرات بالقوه مرتبط با آن اذعان کرد.

آلتمن تاکید کرد: من واقعا بر این باور هستم که اعمال قواعد و مقرراتی در این زمینه کار عاقلانه‌ای است. مردم باید بدانند کجا با هوش مصنوعی سر و کار دارند و آیا محتوایی که در دسترس آنها قرار دارد، ممکن است با هوش مصنوعی تهیه شده باشد یا خیر.

در حالی که در چند ماه گذشته چندین مدل هوش مصنوعی وارد بازار شده‌اند، آلتمن خاطرنشان کرد که یک سازمان جدید باید برای ارائه پروانه کار شرکت‌های هوش مصنوعی تشکیل شود.

وی خاطرنشان کرد که چنین سازمانی باید مسئول تضمین تبعیت شرکت‌ها از معیارهای اخلاقی و پرداختن به نگرانی‌های مربوط به «صحت مطالب» مرتبط با فناوری هوش مصنوعی باشد.

 

صدای جعلی یک سناتور ، نمودی از خطرات هوش مصنوعی

سناتور «ریچارد بلومنتال» جلسه استماع روز سه‌شنبه را با پخش صدای ضبط شده جعلی از خودش آغاز کرد و با این کار ریسک‌ها و خطرات بالقوه ناشی از این فناوری را مورد تاکید قرار داد.

این صدای ضبط شده با استفاده از سخنرانی‌های واقعی بلومنتال در صحن سنا و یک متن نوشته شده توسط «چت جی‌پی‌تی» تهیه شده و استدلال می‌کرد که نمی‌توان اجازه داد که هوش مصنوعی بدون حساب و کتاب و مقررات خاص توسعه پیدا کند.

بررسی مخاطرات هوش مصنوعی در جلسه سنای آمریکا با مدیر «اوپن ای‌آی»

سناتور بلومنتال توضیح داد که هرچند «چت جی‌پی‌تی» بازتابی از دیدگاه‌های واقعی او تهیه کرده است، اما به همین سادگی می‌توان محتوای جعلی با مطالبی مغایر با دیدگاه‌های او در مورد مسائلی مانند اوکراین و روسیه تهیه کرد.

این درحالی است که در ماه های اخیر شمار فزاینده‌ای از شرکت‌ها ابزارهای جدید هوش مصنوعی را به خدمت گرفته‌اند که این تحول ظرفیت بالقوه ایجاد تغییراتی در زندگی روزمره انسانها را دارد. این ابزارها در عین حال با انتقادهایی از سوی افراد مشهوری در حوزه فناوری در ارتباط با توان بالقوه آن برای مختل کردن میلیون‌ها شغل، اشاعه اطلاعات نادرست و ترویج تعصبات و سوگیری‌ها رو به رو شده‌اند.

آلتمن آشکارا اذعان کرد که ظهور و گسترش هوش مصنوعی می‌تواند تاثیری منفی بر بازار کار داشته باشد و بطور بالقوه منجر به بیکاری گسترده در بخش‌های مختلف شود.

وی در عین حال گفت: هوش مصنوعی می‌تواند مشاغل جدیدی ایجاد کند و این مستلزم همکاری و مشارکت بین صنایع و دولت است، اما درباره اهمیت و جالب بودن شغل‌های آینده خوشبین هستم.

 

هشدار درباره وارد کردن آسیب‌های بزرگ به جهان

مدیر عامل شرکت «اوپن ای‌آی» در این جلسه همچنین نگرانی عمیق خود را درباره تهدیدات بالقوه ناشی از هوش مصنوعی علیه دموکراسی در جهان بخصوص به شکل کارزارهای هدفمند اطلاعات نادرست در جریان انتخابات ابراز داشت.

وی تصریح کرد: بزرگترین هراس من این است که ما – این حوزه، این فناوری و این صنعت – موجب وارد شدن صدمات جدی به جهان شویم. به گمان چنین آسیب‌هایی ممکن است به اشکال بسیار مختلفی وارد شود. آلتمن به منظور پرداختن به چنین نگرانی‌هایی پیشنهاد کرد که حسابرسی‌های مستقلی از شرکت‌هایی مانند شرکت «اوپن ای.‌ای» انجام شود.

بررسی مخاطرات هوش مصنوعی در جلسه سنای آمریکا با مدیر «اوپن ای‌آی»

آلتمن شب پیش از حضور در سنای آمریکا در ضیافت شام کاری با 60 تن از اعضای مجلس نمایندگان آمریکا شرکت کرد و با ارائه کاربردهای مختلفی از «چت جی‌پی‌تی» موجب سرگرمی نمایندگان مجلس آمریکا شد که به گفته یکی از حاضران در جلسه، قانونگذاران در این رویداد «بر جای خود میخکوب شده بودند و بسیاری از حاضران در جلسه اذعان داشتند که تنظیم مقررات مربوط به هوش مصنوعی ضروری خواهد بود.

 

مشابهت‌سازی از هوش مصنوعی با بمب اتمی

در بخشی از جلسه سنای آمریکا با مدیر عامل شرکت «اوپن ای آی»، سناتور حزب «جمهوریخواه» «جاش هاولی» ضمن اذعان به پتانسیل‌ها یا ظرفیت‌های بالقوه شگرف و متحول‌ساز هوش مصنوعی، مشابهت‌سازی هشداردهنده‌ای را با اختراع بمب اتمی مطرح کرد.

بررسی مخاطرات هوش مصنوعی در جلسه سنای آمریکا با مدیر «اوپن ای‌آی»

بلومنتال سناتور از حزب «دموکرات» نیز با تاکید براینکه آینده تحت استیلای هوش مصنوعی باید مطابق با ارزش‌های اجتماعی باشد، گفت: آینده تحت سلطه هوش مصنوعی الزاما آینده‌ای نیست که خواهان آن هستیم.

وی از کنگره آمریکا خواست که از نقایص و کاستی‌های گذشته از جمله ناکامی در تنظیم مقررات کافی در حوزه رسانه‌های اجتماعی درس بگیرد.

وی تاکید کرد: کنگره نتواست در خصوص رسانه‌های اجتماعی به موقع عمل کند و اکنون وظیفه داریم در زمینه هوش مصنوعی به موقع عمل کنیم؛ پیش از آنکه تهدیدات و خطرات واقعی شوند.

 

هشدار معاون «آی بی ام» درباره دوره جدید «بدو و بشکن» هوش مصنوعی

بررسی مخاطرات هوش مصنوعی در جلسه سنای آمریکا با مدیر «اوپن ای‌آی»

در جلسه سنای آمریکا همچنین «کریستینا مونتگومری» معاون شرکت «آی بی ام» نسبت به شروع دوره جدیدی از «بدو و بشکن» شعار قدیمی غول‌های «سیلیکون ولی» مانند شرکت «فیسبوک» هشدار داد.

وی تاکید کرد: دوران هوش مصنوعی نمی‌تواند دوره دیگری از «بدو و بشکن» باشد.

مونتگومری در عین حال گفت: از سوی دیگر نباید ترمز نوآوری‌ها را بکشیم.

هشدار سازمان بهداشت جهانی درباره چت ربات‌ها

سه شنبه, ۲۶ ارديبهشت ۱۴۰۲، ۰۶:۳۸ ب.ظ | ۰ نظر

سازمان بهداشت جهانی درباره استفاده از چت ربات‌های ایجاد شده توسط هوش مصنوعی هشدار داد و خواستار هوش مصنوعی ایمن و اخلاقی برای سلامتی شد.
به گزارش ایرنا سازمان بهداشت جهانی خواستار احتیاط در استفاده از ابزارهای مدل زبان بزرگ (LLM) تولید شده توسط هوش مصنوعی (AI) برای محافظت و ارتقای رفاه انسان، ایمنی و استقلال انسان و حفظ سلامت عمومی است.

ابزارهای مدل زبان بزرگ‌ها شامل برخی از پلتفرم‌های به سرعت در حال گسترش مانند ChatGPT، Bard، Bert و بسیاری دیگر هستند که درک، پردازش و تولید ارتباطات انسانی را تقلید می‌کنند. انتشار عمومی و استفاده آزمایشی رو به رشد آن‌ها برای مقاصد مرتبط با سلامت، هیجان قابل توجهی را در مورد پتانسیل حمایت از نیازهای بهداشتی مردم ایجاد می‌کند.

ضروری است که هنگام استفاده از ابزارهای مدل زبان بزرگ که به نام چت ربات‌های هوش مصنوعی شناخته می‌شوند، برای بهبود دسترسی به اطلاعات بهداشتی، به عنوان یک ابزار پشتیبانی تصمیم، یا حتی برای افزایش ظرفیت تشخیصی در محیط‌های کم منابع برای محافظت از سلامت مردم و کاهش نابرابری، خطرات به دقت بررسی شوند.

در حالی که سازمان بهداشت جهانی مشتاق استفاده مناسب از فناوری‌ها، از جمله چت با هوش مصنوعی، برای حمایت از متخصصان مراقبت‌های بهداشتی، بیماران، محققان و دانشمندان است، این نگرانی وجود دارد که احتیاط‌هایی که معمولاً برای هر فناوری جدید اعمال می‌شود، به طور مداوم در مورد ابزارهای مدل زبان بزرگ اعمال نمی‌شود. این شامل گسترش ارزش‌های کلیدی شفافیت، اخلاق مداری، مشارکت عمومی، نظارت متخصصان و ارزیابی دقیق است.

پذیرش سریع سیستم‌های آزمایش‌نشده می‌تواند منجر به اشتباهات کارکنان مراقبت‌های بهداشتی، آسیب رساندن به بیماران، کاهش اعتماد به هوش مصنوعی و در نتیجه تضعیف (یا تأخیر) مزایای بالقوه بلندمدت و استفاده از چنین فناوری‌هایی در سراسر جهان شود.

نگرانی‌هایی که مستلزم نظارت دقیق مورد نیاز برای استفاده از فناوری‌ها به روش‌های ایمن، مؤثر و اخلاقی هستند عبارتند از:

داده‌های مورد استفاده برای آموزش هوش مصنوعی ممکن است مغرضانه باشد و اطلاعات گمراه‌کننده یا نادرستی ایجاد کند که می‌تواند خطراتی برای سلامتی، برابری و فراگیر بودن ایجاد کند.

ابزارهای مدل زبان بزرگ‌ها پاسخ‌هایی را تولید می‌کنند که می‌توانند برای کاربر نهایی معتبر و قابل قبول به نظر برسند. با این حال، این پاسخ‌ها ممکن است کاملاً نادرست باشند یا حاوی خطاهای جدی باشند، به ویژه برای پاسخ‌های مرتبط با سلامت.

ممکن است ابزارهای مدل زبان بزرگ در مورد داده‌هایی که قبلاً برای چنین استفاده‌هایی رضایت ارائه نشده است آموزش ببینند و ممکن است از داده‌های حساس (از جمله داده‌های سلامت) که کاربر برای ایجاد پاسخ در اختیار یک برنامه کاربردی قرار می‌دهد، محافظت نکنند.

از چت بات ها می‌توان برای تولید و انتشار اطلاعات نادرست بسیار قانع کننده در قالب محتوای متنی، صوتی یا ویدئویی استفاده نادرست کرد که تشخیص آن برای عموم از محتوای سلامت قابل اعتماد دشوار است.

در حالی که بهداشت جهانی متعهد به استفاده از فناوری‌های جدید، از جمله هوش مصنوعی و سلامت دیجیتال برای بهبود سلامت انسان است، سازمان بهداشت جهانی توصیه می‌کند که سیاست‌گذاران از ایمنی و محافظت از بیمار اطمینان حاصل کنند، در حالی که شرکت‌های فناوری برای تجاری‌سازی ابزارهای مدل زبان بزرگ (چت بات های هوش مصنوعی) تلاش می‌کنند.

سازمان بهداشت جهانی پیشنهاد می‌کند که به این نگرانی‌ها رسیدگی شود، و شواهد واضحی از منافع قبل از استفاده گسترده از آنها در مراقبت‌های بهداشتی و پزشکی معمول، چه توسط افراد، چه ارائه‌دهندگان مراقبت‌ها یا مدیران سیستم سلامت و سیاست‌گذاران، اندازه‌گیری شود.

سازمان بهداشت جهانی بر اهمیت به کارگیری اصول اخلاقی و حکمرانی مناسب، همان‌طور که در راهنمای سازمان بهداشت جهانی، در مورد اخلاق و حکمرانی هوش مصنوعی برای سلامت، در هنگام طراحی، توسعه و استقرار هوش مصنوعی برای سلامت برشمرده شده است، تاکید می‌کند.

شش اصل اصلی شناسایی شده توسط سازمان بهداشت جهانی عبارتند از: (۱) حفاظت از خودمختاری. (۲) ارتقا رفاه انسان، ایمنی انسان، و منافع عمومی. (۳) شفافیت، توضیح پذیری و قابل فهم بودن را تضمین کند. (۴) مسئولیت پذیری و مسئولیت شناسی را تقویت کند. (۵) از فراگیری و برابری آن اطمینان حاصل شود. (۶) هوش مصنوعی پاسخگو و پایدار را ارتقا دهید.

روش شناسایی تصاویر ساختگی با هوش مصنوعی

سه شنبه, ۲۶ ارديبهشت ۱۴۰۲، ۰۳:۵۹ ب.ظ | ۰ نظر

گوگل به منظور کاهش انتشار اطلاعات نادرست، به ویژه اکنون که ابزارهای هوش مصنوعی ساخت تصاویر جعلی واقعی‌نما را راحت کرده اند، دو ابزار جدید به جستجوی تصویر خود اضافه می‌کند.
به گزارش ایسنا، نخستین ویژگی جدیدی که از سوی گوگل عرضه می‌شود، "درباره این تصویر" (About this image) نام دارد  که توضیح بیشتری مانند زمانی که یک تصویر یا تصاویر مشابه برای اولین بار توسط گوگل ایندکس شده اند، نخستین جایی که برای اولین بار در اینترنت ظاهر شدند و جای دیگری که به صورت آنلاین نمایش داده شدند را اضافه می‌کند. هدف از عرضه این ویژگی، این است که به کاربران کمک شود منبع اصلی تصویر را مشخص کنند و با هرگونه شواهد رد کردنی که ممکن است توسط سازمان‌های خبری ارائه شده باشد، تصویر را مورد بررسی قرار دهند.

گوگل هر تصویر تولید شده توسط هوش مصنوعی را که توسط ابزارهایش ایجاد شده است، علامت‌گذاری می‌کند و با پلتفرم‌ها و سرویس‌های دیگر همکاری خواهد کرد تا مطمئن شود که همان نشانه‌گذاری را به فایل‌هایی که منتشر می‌کنند، اضافه می‌کنند. میدجورنی و شاتراستاک، از جمله ناشرانی هستند که با گوگل همراهی می‌کنند و هدف این است که اطمینان حاصل شود همه محتوای هوش مصنوعی که در نتایج جستجو ظاهر می‌شوند، نشانه گذاری شده اند.

منشأ تصاویر آنلاین، مسئله‌ای است که در دوران هوش مصنوعی، اهمیت رو به رشدی پیدا کرده است و چندین استارتاپ مشغول تولید ابزارهای تایید و احراز هویت هستند. به عنوان مثال، شرکت تروپیک (Truepic Inc) که تحت حمایت مایکروسافت قرار دارد، سیستم‌هایی را عرضه می‌کند که تضمین می‌کنند تصویر از زمان ثبت تا انتشار، دستکاری نشده است.

بر اساس گزارش بلومبرگ، ویژگی‌های جدید گوگل که به تدریج در سال میلادی جاری عرضه می‌شوند، از فناوری نسبتا پایین‌تری برخوردار هستند، اما ممکن است با پشتیبانی کافی صنعت، اثرگذاری مثبت بیشتری داشته باشند.

اروپا پیشتاز تصویب قوانین هوش مصنوعی

يكشنبه, ۲۴ ارديبهشت ۱۴۰۲، ۰۵:۳۰ ب.ظ | ۰ نظر

بسیاری از دولت‌ها در جهان در حال رقابت برای تدوین قوانینی در زمینه هوش مصنوعی هستند؛ از جمله اتحادیه اروپا که روز پنجشنبه پیش‌نویس قانون اولیه هوش مصنوعی را تصویب کرد.

به گزارش خبرگزاری صداوسیما به گزارش نشریه آمریکایی سنتینل تریبون، کمیته پارلمان اروپا به پیشنهاد قانونی رأی داد که بخشی از تلاش چند ساله در راستای ایمنی استفاده از فناوری هوش مصنوعی است. 

این تلاش‌ها فوریت بیشتری پیدا کرده‌اند، زیرا پیشرفت‌های سریع چت‌بات‌هایی مانند «چت جی پی تی» مزایایی را که فناوری نوظهور می‌تواند به همراه داشته باشد و خطرات جدیدی که ایجاد می‌کند، برجسته می‌کند.

 

قوانین چگونه کار می‌کنند؟

قانون هوش مصنوعی که برای اولین بار در سال ۲۰۲۱ ارائه شد، بر هر محصول یا خدماتی که از سیستم هوش مصنوعی استفاده می‌کند، نظارت دارد. 

این قانون، سیستم‌های هوش مصنوعی را بر اساس چهار سطح خطر، از حداقل تا غیرقابل قبول طبقه‌بندی می‌کند. برنامه‌های پرخطرتر با الزامات سخت‌تری مواجه خواهند شد، از جمله شفاف‌تر بودن و استفاده از داده‌های دقیق. 

 

خطرات چیست؟

یکی از اهداف اصلی اتحادیه اروپا محافظت در برابر هرگونه تهدید هوش مصنوعی برای سلامت، ایمنی، حفاظت از حقوق و ارزش‌های اساسی است.

این بدان معناست که برخی از استفاده‌های هوش مصنوعی یک «نه» مطلق هستند، مانند سیستم‌های امتیاز اجتماعی که افراد را بر اساس رفتارشان قضاوت می‌کنند. 

هوش مصنوعی که از افراد آسیب‌پذیر از جمله کودکان بهره‌کشی می‌کند یا می‌تواند منجر به آسیب شود، ممنوع است.

قانونگذاران اروپایی استفاده از ابزار‌های پلیسیِ پیش‌بینی کننده محل وقوع جنایات و اینکه چه کسی مرتکب آن‌ها می‌شود را هم ممنوع کردند.

آن‌ها همچنین ممنوعیت گسترده‌ای را برای تشخیص چهره از راه دور تصویب کردند؛ به استثنای اجرای قانون مانند جلوگیری از یک تهدید تروریستی خاص. این فناوری رهگذران را اسکن می‌کند و از هوش مصنوعی برای تطبیق چهره آن‌ها با پایگاه داده استفاده می‌کند.

«براندو بنیفی» قانونگذار ایتالیایی که از مسئولان پیگیر تصویب قانون هوش مصنوعی در پارلمان اروپاست، به خبرنگاران گفت: هدف ما جلوگیری از ایجاد جامعه کنترل‌شده مبتنی بر هوش مصنوعی است. از این فناوری‌ها می‌توان در زمینه‌های مثبت و منفی استفاده کرد و به همین دلیل خطرات آن را بسیار زیاد می‌دانیم.

سیستم‌های هوش مصنوعیِ مورد استفاده در دسته‌های پرخطر مانند اشتغال و تحصیل که بر روند زندگی افراد تأثیر می‌گذارد، با الزامات سختی مانند شفاف بودن با کاربران، اعمال ارزیابی ریسک و اقدامات کاهشی مواجه هستند.

بازوی اجرایی اتحادیه اروپا می‌گوید که بیشتر سیستم‌های هوش مصنوعی، مانند بازی‌های ویدئویی در گروه کم‌خطر یا بدون خطر قرار می‌گیرند.

 

در مورد «چت جی پی تی» چطور؟

در پیشنهاد اولیه ۱۰۸ صفحه‌ای اروپا درباره هوش مصنوعی، به سختی از چت‌بات‌ها نام برده می‌شد به این شکل که صرفاً باید آن‌ها را برچسب‌گذاری کرد تا کاربران بدانند که در حال تعامل با یک ماشین هستند. مذاکره‌کنندگان بعداً مقرراتی را برای پوشش هوش مصنوعی عمومی مانند «چت جی پی تی» اضافه کردند و آن‌ها را در معرض برخی از الزامات مشابه سیستم‌های پرخطر قرار دادند. 

یکی از موارد کلیدی این است که باید به طور کامل هر گونه حق نسخه‌برداری را که برای آموزش سیستم‌های هوش مصنوعی استفاده می‌شود، مستندسازی کنید تا متن، تصویر، ویدئو یا موسیقی شبیه کار انسان تولید کنند. این به سازندگان محتوا اجازه می‌دهد بدانند که آیا از پست‌های وبلاگ، کتاب‌های دیجیتال، مقالات علمی یا آهنگ‌های پاپ آن‌ها برای آموزش الگوریتم‌هایی استفاده شده است که سیستم‌هایی مانند «چت جی پی تی» را تقویت می‌کنند. سپس آن‌ها می‌توانند تصمیم بگیرند که آیا کارشان کپی شده است یا خیر و به دنبال جبران خسارت باشند. 

 

چرا قوانین اتحادیه اروپا بسیار مهم است؟

اتحادیه اروپا بازیگر بزرگی در توسعه پیشرفته هوش مصنوعی نیست. این نقش را آمریکا و چین بر عهده دارند. اما بروکسل اغلب با مقرراتی که تمایل دارد به استاندارد‌های جهانی تبدیل شوند، نقش تعیین‌کننده‌ای را در این روند ایفا می‌کند.

بروکسل همچنین در تلاش است تا بازار را با ایجاد اعتماد در میان کاربران توسعه دهد.

به گفته «یوهان لاکس» کارشناس موسسه اینترنت آکسفورد، تفکر پشت قوانین درباره هوش مصنوعی این است که اگر بتوانید مردم را به اعتماد به هوش مصنوعی و برنامه‌های کاربردی ترغیب کنید، آن‌ها نیز بیشتر از آن استفاده خواهند کرد و زمانی که از آن بیشتر استفاده کنند، پتانسیل اقتصادی و اجتماعی هوش مصنوعی را افزایش خواهند داد.

 

اگر قوانین را زیر پا بگذارید چه؟

زیر پا گذاشتن قوانین در این حوزه منجر به جریمه‌هایی تا ۳۰ میلیون یورو (۳۳ میلیون دلار) یا ۶ درصد از درآمد جهانی سالانه یک شرکت می‌شود که در مورد شرکت‌های فناوری مانند گوگل و مایکروسافت می‌تواند به میلیارد‌ها دلار برسد.

 

بعد چه می‌شود؟

ممکن است سال‌ها طول بکشد تا قوانین به طور کامل اجرایی شوند. 

قانونگذاران اتحادیه اروپا قرار است در نشست عمومی در اواسط ژوئن (خردادماه) در مورد پیش‌نویس این قانون رأی‌گیری کنند. پارلمان اروپا سپس وارد مذاکرات سه‌جانبه‌ای می‌شود که شامل ۲۷ کشور عضو بلوک، پارلمان و کمیسیون اجرایی می‌شود؛ جایی که ممکن است این پیش‌نویس با تغییرات بیشتری در بحث جزئیات مواجه شود. 

انتظار می‌رود این پیش‌نویس تا پایان سال یا حداکثر تا اوایل سال ۲۰۲۴ تأیید نهایی شود و پس از آن یک دوره مهلت برای سازگاری شرکت‌ها و سازمان‌ها که اغلب حدود دو سال است، ارائه خواهد شد.

جنجال هوش مصنوعی در انتخابات ترکیه

يكشنبه, ۲۴ ارديبهشت ۱۴۰۲، ۰۵:۱۸ ب.ظ | ۰ نظر

کاربران ترک اینترنت وقتی متوجه شدند که کمال کلیچداراوغلو، رقیب اصلی رجب طیب اردوغان، رئیس‌جمهور ترکیه در انتخابات روز یکشنبه، در ویدئویی که ۲ هفته پیش در فضای مجازی منتشر شد، به‌صورت کامل انگلیسی صحبت می‌کند، شگفت‌زده شدند. اما ۲ روز بعد، وب سایت مستقل ترکیه‌ای به نام Teyit فاش کرد که این ویدئو ساختگی بوده است.
پیشرفت هوش مصنوعی غیرقابل کنترل است و حالا این فناوری قرار است تأثیر خود را در انتخابات سیاسی کشور‌ها به رخ بکشد. با این حال کارشناسان هوش مصنوعی می‌گویند محتوای گمراه‌کننده تولید شده توسط هوش مصنوعی می‌تواند رأی‌دهندگان را تحت‌تأثیر قرار دهد.

به گزارش همشهری آنلاین به نقل از یورونیوز، شاید انتخابات ریاست‌جمهوری ترکیه نخستین جایی باشد که این چالش خودش را نشان می‌دهد. کاربران ترک اینترنت وقتی متوجه شدند که کمال کلیچداراوغلو، رقیب اصلی رجب طیب اردوغان، رئیس‌جمهور ترکیه در انتخابات روز یکشنبه، در ویدئویی که ۲ هفته پیش در فضای مجازی منتشر شد، به‌صورت کامل انگلیسی صحبت می‌کند، شگفت‌زده شدند. اما ۲ روز بعد، وب سایت مستقل ترکیه‌ای به نام Teyit فاش کرد که این ویدئو ساختگی بوده است.

همچنین رقیب اردوغان اعلام کرده که ویدئوی پخش شده از محرم اینجه، نامزد دیگر انتخابات که مجبور به کناره‌گیری شد به‌وسیله هوش‌مصنوعی و فناوری دیپ‌فیک ساخته شده است.

ایالات متحده آمریکا نیز که خود را برای انتخابات ۲۰۲۴ ریاست‌جمهوری آماده می‌کند با این چالش روبه‌رو است.

حزب جمهوری‌خواهان از ویدئوی تولید شده توسط هوش مصنوعی برای انتقاد از جو بایدن استفاده کرده که نشان‌دهنده تأثیر این فناوری پیشرفته در سیاست است. پیشرفت‌های فناوری دیجیتال ابزار‌های جدید و سریع‌تری را برای پیام‌رسانی سیاسی فراهم می‌کند و می‌تواند تأثیر عمیقی بر نحوه نگاه رأی‌دهندگان، سیاستمداران و خبرنگاران به نامزد‌ها و مبارزات انتخاباتی داشته باشد. ما دیگر در مورد فتوشاپ عکس‌ها یا قرار دادن سر کسی روی بدن فرد دیگری صحبت نمی‌کنیم، بلکه در حال حرکت به سمت دورانی هستیم که ویدئو‌ها و تصاویری واقعی با هوش مصنوعی ساخته و منتشر می‌شود و توانایی مخاطب عام نیز برای تشخیص اصل یا جعلی بودن آن‌ها محدود است.

سیاستمداران می‌توانند از هوش مصنوعی مولد برای پاسخ فوری به تحولات استفاده کنند. این فناوری راه ارزانی برای ایجاد پاسخ‌های فوری بدون اتکا به مشاوران پردرآمد یا فیلمبرداران خبره است. این فناوری هدف‌گذاری بسیار دقیقی برای مخاطبان ایجاد می‌کند که در کمپین‌های سیاسی بسیار مهم است.

دانشگاه امیرکبیر هاب هوش مصنوعی کشور شد

يكشنبه, ۲۴ ارديبهشت ۱۴۰۲، ۰۳:۵۳ ب.ظ | ۰ نظر

معاون پژوهشی دانشگاه صنعتی امیرکبیر از انتخاب این دانشگاه به عنوان هاب کشور از طریق بعضی وزارت خانه‌ها در زمینه هوش مصنوعی خبر داد.
به گزارش روابط عمومی دانشگاه صنعتی امیرکبیر ، عامری شهرابی در مراسم اختتامیه هفتمین جشنواره هوش مصنوعی دانشگاه صنعتی امیرکبیر گفت: بیش از یک دهه از برگزاری این مسابقه می‌گذرد. هدف از این نوع مسابقات این است که دانشگاه علاوه بر ارتقای سطح علمی و پژوهش، رابطه خوبی با صنعت برقرار کند. رابطه‌ای که از رهگذر آن مشکلات صنعت را حل کنیم. اگر رابطه موثری بین دانشگاه و صنعت ایجاد شود، به رفاه عمومی و بهبود وضعیت کشور منتهی خواهد شد.

وی افزود: مشکلاتی در ارتباط بین دانشگاه و صنعت در گذشته وجود داشته است. ریشه برخی از این مشکلات به دانشگاه و برخی دیگر به صنعت برمی‌گردد. این مشکلات در کشور‌های دیگر هم وجود داشته است.

عامری با بیان این که مسابقه هوش مصنوعی بر اساس نیاز‌های صنعت شکل گرفته بطوری که عنوان هر مسابقه با نظر صنعت حامی مسابقه تعیین می‌شود. گفت: پژوهشگران همیشه گلایه داشتند که پژوهش‌های شان در کتابخانه‌ها خاک می‌خورد؛ اما امروز با برگزاری این نوع مسابقات پژوهش‌ها کاربردی می‌شوند. 

وی گفت: در این راستا، سعی بر آن است پایان نامه‌ها را نیز به سمت حل مشکلات صنعت ببریم که قطعا صنعت هم حمایت خواهد کرد. با مذاکراتی که با شرکت فولاد مبارکه اصفهان داشتیم آن‌ها پذیرفتند که از پایین نامه‌های مرتبط با صنعت فولاد حمایت‌های خوبی داشته باشند. به طوری که، هر پژوهشی مرتبط با فولاد مبارکه انجام شود، از ۳۰ تا ۷۰ میلیون تومان از پایان‌نامه‌اش حمایت مالی می‌شود. همچنین هر کدام از طرح‌هایی که بتواند به طرح کلان برسد، از حمایت ۱۰۰ میلیون تومانی بهره‌مند می‌شوند. کسانی که در مسابقه برنده شدند یا نشدند هم می‌توانند از این حمایت استفاده کنند با این شرط که یکی از استادان دانشگاه صنعتی امیرکبیر مسئولیت آن طرح را بپذیرد. 

معاون پژوهشی دانشگاه صنعتی امیرکبیر تصریح کرد: اتاق بازرگانی هم اعلام کرده است که از پایان‌نامه‌های دانشجویان این دانشگاه حمایت خواهد کرد. هم راستا کردن پایان‌نامه‌ها با مشکلات کشور یکی از برنامه‌های مهم معاونت پژوهشی دانشگاه صنعتی امیرکبیر است. بازدید از واحد‌های صنعتی هم یکی دیگر از اقدامات معاونت پژوهشی جهت آشنایی اساتید و دانشجویان با صنعت است. بعضی از شرکت‌ها هزینه‌های رفت و آمد و اسکان دانشجویان و استادان را به عهده گرفته‌اند تا پژوهش‌های دانشگاهی در راستای نیاز‌های آن شرکت هدایت شود.

وی تاکید کرد: کمک هزینه پژوهش حداقل ۶۶ میلیون تومانی برای استادان جوان در راستای ارتباط بهتر با صنعت درنظر گرفته شده است. 

معاون پژوهشی دانشگاه صنعتی امیرکبیر گفت: هدف مسابقه این است که ارتباط خوبی بین دانشگاه و صنعت ایجاد کند. به همین دلیل، با تمام توان در این زمینه تلاش خواهیم کرد. 

عامری با اشاره به این که از صنایع درخواست می‌کنم به تقویت این ارتباط ادامه دهند، یادآور شد: برخی وزارتخانه‌ها دانشگاه صنعتی امیرکبیر را به عنوان هاب هوش مصنوعی کشور انتخاب کردند و اعلام کردند که هر دانشگاهی در کشور قصد دارد در زمینه هوش مصنوعی مرتبط با وزراتخانه مربوطه فعالیت کند، باید از طریق دانشگاه صنعتی امیرکبیر اقدام کند. چرا که ظرفیت‌های بسیار خوبی در این دانشگاه وجود دارد.

معاون پژوهشی دانشگاه صنعتی امیرکبیر افزود: هم‌اکنون پروژه‌های بسیاری در دانشگاه صنعتی امیرکبیر در حال انجام است که در همکاری با هوشمند سازی صنایع شکل گرفته است. 

وی یادآور شد: هوشمندسازی یکی از اهداف اصلی دانشگاه صنعتی امیرکبیر است و ریاست دانشگاه بار‌ها این بر این ماموریت تاکید داشتند. در این زمینه پتانسیل بالایی در دانشگاه وجود دارد. به جرات می‌توان گفت همه دانشکده‌های این دانشگاه، هم‌اکنون در موضوع هوشمندسازی فعالیت دارند. برای مثال در دانشکده نفت، موضوع هوشمندسازی چاه‌های نفتی بیش از یک دهه است نه تنها تدریس می‌شود بلکه پایان نامه‌ها و مقالات متعددی نیز منتشر کرده است. دانشکده‌های مثل مهندسی برق، مکانیک، شیمی و ... که مدتهاست در این زمینه فعالند؛ لذا به نظر من این مسابقه می‌تواند در سطح دانشگاه نیز برگزار شود.

عامری تاکید کرد: این دانشگاه جامع‌ترین و کامل‌ترین دانشگاه صنعتی کشور است. چرا که دانشکده‌های متنوع فنی نظیر مهندسی پزشکی، پلیمر، پتروشیمی را بطور انحصاری دارد و بقیه رشته‌های رایج را نیز به طریق اولی دارد؛ لذا از تمام صنایع برای ارتباط بیشتر با این دانشگاه دعوت می‌کنیم و امیدواریم دانشگاه و صنعت در کنار هم بتوانند مشکلات کشور را یر طرف کنند.

هوش مصنوعی هر دقیقه یک کتاب می‌خواند

يكشنبه, ۲۴ ارديبهشت ۱۴۰۲، ۰۳:۵۰ ب.ظ | ۰ نظر

شرکت آنتروپیک با ارتقای مدل هوش مصنوعی Claude مدعی شده است که این مدل اکنون حافظه بزرگ‌تری نسبت به GPT-4 دارد.
به گزارش خبرگزاری صدا و سیما؛ شرکت آنتروپیک اعلام کرد: قدرت پردازش داده توسط هوش مصنوعی مولد خود، یعنی Claude را به‌طرز قابل‌توجهی افزایش داده است. این مدل از محدودیت پردازش ۹ هزار توکن حالا به ۱۰۰ هزار توکن رسیده است.

به عبارت دیگر این هوش مصنوعی می‌تواند رمانی مثل «فرانکشتاین» اثر «ماری شلی» را در کمتر از یک دقیقه بخواند و اطلاعات آن را تحلیل کند. استارتاپ هوش مصنوعی آنتروپیک که توسط مهندسان سابق OpenAI تأسیس شده حافظه مدل زبانی Claude خود را ارتقا داده است تا این نرم‌افزار بتواند در هر نشست حدود ۷۵ هزار کلمه را پردازش کند.

براساس توضیحاتی که در وبلاگ این استارتاپ ارائه شده است، Claude می‌تواند در یک جلسه به‌طور کامل کتاب «گتسبی بزرگ» را مطالعه و پردازش کند. در آزمایشی که برای بررسی این قابلیت انجام شده است، آن‌ها یک جمله را در داخل این کتاب تغییر دادند تا عملکرد هوش مصنوعی را در تشخیص این تغییر امتحان کنند.

نتیجه این بود که Claude در ۲۲ ثانیه موفق به تشخیص این تغییر شد. مدل‌های هوش مصنوعی اطلاعات را نه براساس تعداد حروف یا کلمات، بلکه با کمک توکن‌ها ارزیابی می‌کنند. این روش منطقی‌تر است، چون کلمات می‌توانند بلند یا کوتاه باشند و اندازه‌شان لزوماً ارتباط مستقیمی با پیچیدگی معنایی آن‌ها ندارد.

همان‌طور که گفتیم، حافظه Claude اکنون به ۱۰۰ هزار توکن رسیده است، درحالی‌که مدلی مثل GPT-۴ در حالت عادی ۸ هزار توکن را پردازش می‌کند و نسخه‌ای از آن می‌تواند تا ۳۲ هزار توکن را پردازش کند. این ظرفیت بالا در مدل Claude درحال‌حاضر فقط برای شرکای تجاری انتروپیک در دسترس است.

همچنین گفته نشده که هزینه استفاده از این مدل چقدر بیشتر از مدل قبلی این شرکت است. آنتروپیک می‌گوید برای یک انسان حدود پنج ساعت طول می‌کشد تا بتواند ۷۵ هزار کلمه را بخواند. بااین‌حساب، هوش مصنوعی می‌تواند از یک جهت دیگر برتر از انسان‌ها عمل کند و قابلیت‌های متنوعی داشته باشد.

بحران جهانی هوش مصنوعی

شنبه, ۲۳ ارديبهشت ۱۴۰۲، ۰۷:۴۶ ب.ظ | ۰ نظر

رامین کیانی - چند روز پیش بود که جفری هینتون ملقب به پدرخوانده هوش مصنوعی، ضمن اعلام خطرات هوش مصنوعی برای آینده بشریت، از کار کناره‌گیری کرد. تنها جفری هینتون نیست که از این مسئله ابراز نگرانی می‌کند، تعدادی از دانشگاهیان و افراد برجسته در حوزه فناوری نیز چنین مسائلی را مطرح کرده‌اند. برخی بر این باورند که هوش مصنوعی آینده جهان خواهد بود. برخی معتقدند که هوش مصنوعی در خدمت انسان است و انسان به وسیله این به اصطلاح ابزار، توانایی خارق العاده‌ای را برای دخل و تصرف در جهان پیرامون خود به دست خواهد آورد. گروه دیگری چنین بیان می‌کنند که جهان آینده، جهان هوش مصنوعی است اما بدون انسان و یا حتی دیگر موجودات. 

شاید در نگاه اول این موضوع بسیار دور از انتظار به نظر برسد و تنها فیلم‌های آخر زمانی را برای ما تداعی کند اما کمی تامل و توجه به ابعاد مختلف موضوع، واقعیت‌ها را برای ما علنی‌تر می‌کند. 

باید یادمان باشد که هوش مصنوعی رباتیک نیست. معمولا بیشتر افراد این دو حوزه را با یکدیگر اشتباه می‌گیرند. تصوری که از ربات‌ها در ذهن خود دارید را دور بریزید. رباتیک و هوش مصنوعی اهداف بسیار متفاوتی را دنبال می‌کنند. هوش مصنوعی قادر است به سوالاتی پاسخ دهد و معماهایی را حل کند که شما و هیچ شخص دیگری ابدا پاسخی برای آن تعریف نکرده‌اید. همانطور که از نام آن پیداست هوش مصنوعی تلاشی است برای ساخت هوش. هوش مصنوعی نمونه‌ای از تلاش انسان برای شبیه سازی هوش خود برای سهولت انجام امور و کاهش رنج است. هوش بخشی از ماحصل فعالیت‌های مغز است. مغز ما یعنی انسان‌های خردمند (هموساپینس‌ها) به عنوان پیشرفته‌ترین مغز در جهان شناخته می‌شود. حال با ظهور هوش مصنوعی یک مسئله جدید پیش روی ماست، آیا هوش مصنوعی می‌تواند از هوش هموساپینس‌ها که خالق آن هستند فراتر رود؟ برخی معتقد هستند که این موضوع امکان پذیر نیست؛ اما گروه دیگری بر این باورند که هوش مصنوعی محدودیت‌های بیولوژیکی مغز هموساپینس‌ها را ندارد. صحبت پیرامون این مسئله را به جای دیگری واگذار کنیم. 

پرسش مهمتری که تا اینجای بحث پیش روی ما این است که چرا ظهور یک هوش می‌تواند برای ما (هموساپینس‌ها) خطرساز باشد؟ برای پاسخ به این سوال باید به سراغ زیست‌شناسی و ژنتیک برویم. با نگاهی به دنیای پیرامون در می‌یابیم که بسیاری از حیوانات از نظر فیزیکی و سازگاری با محیط توانایی‌های بسیار بیشتری از ما دارند و این تنها مغز و هوش انسان خردمند بوده که او را حاکم بلامنازع کره زمین کرده است. انسان با کمک مغز خود ابزار تولید کرده و به وسعت ابزارهایش جهان را تحت سلطه خود درآورده است. شاید دانستن این موضوع بی‌ربط نباشد که همین جهان پیرامونی که ما درباره آن صحبت می‌کنیم واقعا به گونه‌ای که ما می‌بینیم نیست و تصویری که ما از جهان می‌بینیم و درک ما از هستی، برایند پردازش داده‌هایی است که مغز ما با کمک گیرنده‌های خود (حواس پنج‌گانه) از محیط دریافت می‌کند. جالب است که بدانیم دیدن، شنیدن، چشیدن و همه چیز در ذهن ما رخ می‌دهد و نه در خود اندام‌های گیرنده. این‌‌ها موضوعات بسیار قابل تاملی است. حالا شاید بهتر مفهوم هوش مصنوعی را درک کنیم. 

در واقع می‌توان گفت هوش مصنوعی هم مانند مغز هموساپینس‌ها درکی از جهان دارد. درکی که احتمالا ما هیچ اطلاعی از آن نداریم. از این نقطه به بعد داستان برای ما بسیار خطرناک‌ می‌شود. هوش مصنوعی درکی از جهان دارد، همانند دیگر موجودات. هر جنبنده‌ای به میزان توسعه مغزش از جهان پیرامون خود درکی دارد. پس هرچند که هوش مصنوعی ساخته طبیعت نیست و از دل آن بیرون نیامده و ظاهرا نمی‌تواند یک رقیب برای گونه هموساپینس‌ها باشد اما هوش مصنوعی ساخته هموساپینس‌هاست، ساخته‌ای که درکی از جهان دارد و قادر است تصمیم‌گیری ‌کند و احتمالا در آینده‌ای نزدیک، خود نیز خالق ابزارهای خود باشد و این یک تهدید بسیار بزرگ است. 

آنچه پیداست هوش مصنوعی روز به روز پیشرفته‌تر خواهد شد و احتمالا هموساپینس‌ها در خطر انقراض قرار می‌گیرند. حال سوال نهایی ما این است. انسان خردمند در مقابل این تهدید چه کاری می‌تواند انجام دهد؟ آیا راه خلاصی وجود دارد؟ اینجاست که انسان خردمند بار دیگر باید از ابزارهای خود استفاده کند. یکی از ابزارهای انسان حکومت است. حکومت‌ها باید به تصویب قوانین بازدارنده بپردازند. هر چند احتمالا هیچ قانونی نمی‌تواند به طور کامل در مقابل رشد هوش مصنوعی ایستادگی کند. هوش مصنوعی به عنوان یک تهدید جهانی نیاز به راه حل‌ جهانی دارد. همانطور که تغییرات اقلیمی، تروریسم و پاندمی‌های نوین نیز بحران‌های جهانی هستند و راه حل‌های جهانی طلب می‌کنند. انسان‌ خردمند باید از ابزارهای جهانی خود یعنی سازمان‌های بین‌المللی استفاده کند. 

شاید سازمان‌های بین‌المللی اکنون توانایی غلبه بر بسیاری از مشکلات جهانی را نداشته باشند. اما تشدید بحران‌های کنونی و ظهور بحران‌های جدید اهمیت سازمان‌های بین‌المللی را بیش از پیش برای همگان آشکار خواهد کرد. سازمان‌های بین‌المللی و در رأس آنها سازمان ملل متحد باید هر چه زودتر در مقابل این تهدید جهانی چاره‌ای بیاندیشند، پیش از آن که کار از کار بگذرد. (منبع:دیپلماسی ایرانی)

وزنیاک: نمی‌توان رشد هوش مصنوعی را متوقف کرد

جمعه, ۲۲ ارديبهشت ۱۴۰۲، ۰۳:۲۰ ب.ظ | ۰ نظر

استیو وزنیاک، یکی از بنیانگذاران کمپانی اپل، در هشداری جدی درباره پیشرفت هوش مصنوعی، گفته است ما نمی‌توانیم رشد آن را متوقف کنیم.
به گزارش همشهری آنلاین و به نقل از روزنامه سان، این هشدار تنها چند روز پس از آن منتشر شد که جفری هینتون که او را به عنوان پدرخوانده هوش مصنوعی می‌شناسند، هشدار داد که این فناوری می تواند توسط «بازیگران بد» استفاده شود.

وزنیاک به همراه استیو جابز در سال ۱۹۷۶ کمپانی اپل را تأسیس کرده بود، او در مصاحبه‌ای با بی‌بی‌سی نیز نگرانی مشابهی را تکرار کرده است. وزنیاک که اکنون ۷۲ سال دارد به این شبکه گفت که نگران است «بازیگران بد» از هوش مصنوعی سوء استفاده کنند و از آن برای فریب قربانیان ناآگاه، به دست آوردن اطلاعات شخصی یا سرقت اطلاعات استفاده کنند.

وزنیاک افزود: هوش مصنوعی بسیار باهوش است و درهای آن برای بازیکنان بد باز است، آن‌هایی که شما را درباره هویت خود و اینکه چه کسی هستندف فریب می‌دهند. او پیشنهاد کرد که محتوای هوش مصنوعی باید برچسب‌گذاری و تنظیم شود و ادعا کرد که شرکت‌های بزرگ فناوری احساس می‌کنند که می‌توانند از هر چیزی در حال حاضر استفاده کنند واز پیگرد و نظارت مصون بمانند.

وزنیاک گفت: یک انسان واقعا باید مسئولیت آنچه که توسط هوش مصنوعی تولید می شود را بپذیرد. همزمان او به این نکته اذعان کرد که مقررات نمی‌تواند به تنهایی مشکل در رابطه با هوش مصنوعی را حل کند و اشاره کرد که برخی ممکن است از پول و منابع مالی برای تغییر خیلی چیزها به نفع خود استفاده کنند.

در ماه‌های اخیر، نگرانی‌ها در مورد اینکه آیا پیشرفت‌های هوش مصنوعی به حدی خواهد رسید که چت‌بات‌ها، روبات‌ها و سایر سیستم‌ها جایگزین کارگران انسانی شوند، افزایش یافته است. وزنیاک نسبت به این نگرانی‌ها به دیده تردید می‌نگرد،  او به بی بی سی گفت که هوش مصنوعی نمی‌تواند جایگزین افراد شود زیرا فاقد احساسات است. در عین حال، او هشدار داد که این فناوری هنوز در حال رشد است.

وزنیاک گفت: «ما نمی توانیم جلوی فناوری را بگیریم. در نهایت، او معتقد است که افراد می توانند در کنار آن رشد کنند و در شناسایی محتوای جعلی یا کلاهبرداری‌های سایبری بهتر عمل کنند. اخیرا وزنیاک به بیش از هزار نفر از جمله ایلان ماسک پیوست و نامه‌ای سرگشاده را امضا کرد که خواستار توقف شش ماهه توسعه سیستم‌های هوش مصنوعی شده بود.
این نامه به دلیل انتشار GPT-۱، یک نسخه قدرتمندتر و پیشرفته تر از فناوری مورد استفاده توسط ربات چت محبوب ChatGPT، تنظیم شده بود و در آن نگرانی‌ها درباره توسعه سریع هوش مصنوعی ابراز شده بود.

تدابیر بین‌المللی علیه هوش مصنوعی

چهارشنبه, ۲۰ ارديبهشت ۱۴۰۲، ۰۳:۵۳ ب.ظ | ۰ نظر

توسعه ابزار هوش مصنوعی جدید طی ماه‌های اخیر، سبب تشدید نگرانی‌ها در مورد تهدیدات بالقوه این فناوری نوظهور در میان قانون‌گذاران سراسر جهان شده است.

خبرگزاری مهر - گروه دانش و فناوری؛ سیدرضا حسینی: مدتی است که آوازه هوش مصنوعی و پیشرفت‌هایش در سراسر جهان پیچیده و یکی از معروف‌ترین آن‌ها که به‌محض برخورد با کلمه هوش مصنوعی در ذهن تداعی می‌شود چت جی پی تی است؛ اما اکثر اسم‌هایی که با عنوان هوش مصنوعی به گوش ما می‌رسند، در واقع نرم‌افزارهای مبتنی بر هوش مصنوعی هستند.

«ChatGPT» و «Bard» جزو گروه چت‌بات‌ها هستند و «Midjourney» و «Dall.E» از جمله مدل‌های یادگیری ماشینی هستند که برای تبدیل متن به تصویر دیجیتال ساخته شده‌اند.

با گذشت مدتی کوتاه از عرضه عمومی «ChatGPT» و رشد رکورد شکن تعداد کاربران این پلتفرم، مسئله تنظیم‌گری فناوری‌های نوظهور همچون هوش مصنوعی، بار دیگر به اولویت اصلی فعالان این حوزه و دولت‌های سراسر جهان تبدیل شده است. ابراز نگرانی از مضرات این فناوری تا آنجا پیش رفت که جفری هینتون یکی از پیش کسوت‌ها و پدرخوانده هوش مصنوعی به تازگی و پس از آنکه متوجه شد احتمالاً رایانه‌ها از انسان‌ها باهوش‌تر می‌شوند، از شرکت گوگل استعفا داد تا آزادانه درباره خطرات این فناوری صحبت کند.

وی که با ابراز نگرانی درباره خطرات هوش مصنوعی از شرکت گوگل استعفا داده است، گفت: اکنون از کار خود در این رشته پشیمان است.

او در مصاحبه‌ای با نیویورک تایمز درباره ظرفیت این فناوری برای ایجاد تصاویر و متون جعلی اظهار نگرانی کرد و گفت: این فناوری و ابزارهایش دنیایی را به وجود می‌آورند که در آنها انسان‌ها نمی‌توانند واقعیت را تشخیص دهند.

 

قیام کشورها علیه فناوری‌های نوظهور هوش مصنوعی

با همه اینها به عقیده بسیاری از کارشناسان، هوش مصنوعی فناوری آینده‌ساز خواهد بود و درک ما از زندگی را تا حدود زیادی تغییر خواهد داد. از همین روی با روی کار آمدن و شهرت روز افزون چت جی پی تی، سیاستمداران با عزمی راسخ در پی مهار و کنترل آن برآمده‌اند.

از سوی دیگر، غول‌های فناوری مانند مایکروسافت، گوگل و آمازون نیز در حال رقابت تنگاتنگ برای بهره‌برداری حداکثری از مواهب توسعه این فناوری نوظهور هستند و همین امر، مسئله لزوم تنظیم‌گری این حوزه را بیش از پیش برجسته ساخته است. زیرا در صورت عدم کنترل نهادهای قانون‌گذار و تنظیم‌گر بر قوانین رقابت، هوش مصنوعی مولد می‌تواند سبب کسب مزیت و قدرت نامتعارف از سویشرکت‌های بزرگ فناوری شود و این بنگاه‌های اقتصادی را بر جوامع بشری مسلط کند.

تدابیر بین‌المللی علیه هوش مصنوعی جدید

چین؛ از مقابله رویاروی تا چت بات ملی

دولت چین، در راستای مقابله با تهدیدات هوش مصنوعی دو راه حل اساسی اتخاذ کرده است. این کشور در ماه فوریه اعلام کرد که پکن از شرکت‌های پیشرو در ساخت مدل‌های هوش مصنوعی که می‌توانند «Chat GPT» را به چالش بکشند، حمایت خواهد کرد. در ماه آوریل خبرگزاری شینهوا یک بیانیه دولتی بر مبنای نشست فصلی حزب کمونیست منتشر کرد. این بیانیه تأکید می‌کند که چین باید توجه شایانی به توسعه هوش مصنوعی و خلاقیت در این حوزه و مقابله با خطرات پیش‌بینی شده آن داشته باشد. به عقیده برخی کارشناسان این اقدام چین علاوه بر اینکه نشان‌دهنده اولویت چین در تبدیل‌شدن به قدرت اول در حوزه فناوری است، مبین اهمیت «ChatGPT» و لزوم مقابله با قدرت انحصاری این پلتفرم است.

دوم اینکه دولت چین علاوه بر اینکه تلاش دارد تا چت‌بات ملی خود را داشته باشد، تلاش برای تنظیم‌گری هوش مصنوعی مولد را نیز در دستور کار خود قرار داده است. تنظیم‌کننده فضای سایبری چین (CAC) در این راستا از پیش‌نویس اقداماتی برای تنظیم‌گری خدمات هوش مصنوعی رونمایی کرد و در آن از شرکت‌ها خواست که ارزیابی‌های امنیتی خود را قبل از ارائه خدمات به مقامات اعلام کنند. اصول دولت چین در تنظیم‌گری هوش مصنوعی، نظارت بر محتوا، حمایت از حق مالکیت معنوی، مقابله با اطلاعات نادرست، حفظ حریم شخصی و محافظت از داده‌ها و رفع نابرابری است.

 

اولین گام مهم اتحادیه اروپا

اتحادیه اروپا و نهادهای قانون‌گذار آن در بحبوحه محبوبیت و شهرت «ChatGPT» و سایر چت‌بات‌ها و هوش مصنوعی‌های مولد در پی آسیب‌شناسی و مقابله با خطرات احتمالی این فناوری جدید، بر آمدند. در ادامه مروری بر نظرات مختلف و اقدامات انجام‌شده خواهیم داشت.

برخی از قانون‌گذاران اروپا معتقدند می‌توان از مقررات حفاظت از داده‌های عمومی (GDPR)، جهت کنترل هوش مصنوعی و صاحبان آن استفاده کرد. با توجه به اینکه هوش مصنوعی از داده‌ها برای پاسخ‌های خود استفاده می‌کند «GDPR» با اصول حفاظت از داده‌های خود، می‌تواند با هرگونه استفاده از داده‌های کاربران و نقض حریم شخصی مقابله کند.

برخی دیگر از تنظیم گران مانند هلن دیکسون، عضو هیئت نهاد حفاظت از داده‌ها ایرلند، در جلسه‌ای که در پی ممنوعیت موقت «ChatGPT» برگزار شد، معتقد بودند که عجله در تنظیم‌گری هوش مصنوعی مولد بدون درک و شناخت دقیق کارکرد و فرایند آن، مانع تنظیم‌گری مناسب و صحیح خواهد شد.

در نهایت هیئت حفاظت از داده‌های اروپا، با متحد کردن ناظران ملی حفظ حریم خصوصی اروپا، در ماه آوریل اعلام کرد که کارگروهی مخصوص «ChatGPT» راه‌اندازی کرده است که این حرکت را می‌توان اولین گام مهم قاره سبز در جهت تنظیم قوانین مشترک حفظ حریم خصوصی در حوزه هوش مصنوعی دانست؛ به عبارتی دیگر قانون‌گذاران اتحادیه اروپا همچنان در حال گفتگو، بحث و کارشناسی در مورد معرفی قانون هوش مصنوعی اتحادیه اروپا هستند تا حکمرانی حوزه هوش مصنوعی را بااقتدار پیش ببرد. قانون‌گذاران پیشنهاد کرده‌اند که ابزارهای گوناگون هوش مصنوعی را بر اساس میزان ریسک و خطرپذیری، از کم تا غیرقابل‌قبول درجه‌بندی کنند.

بنا به گفته سخنگوی وزیر صنعت و علوم استرالیا از نهاد اصلی مشاوره علمی کشور درباره نحوه برخورد باهوش مصنوعی درخواست مشورت کرده و در حال تحلیل و بررسی گام‌های بعدی خود است.

 

ایالات متحده آمریکا؛ تشکیل کارگروه مقابله با هوش مصنوعی

در راستای جذب میلیونی کاربران به سمت «Chat GPT» و تلاش کشورها جهت تنظیم‌گری آن، کاخ سفید در ماه مارس اعلام کرد که آمادگی شنیدن هر گونه پیشنهادی مبنی بر نحوه برخورد با «Chat GPT» و روش مسئولیت‌پذیر و پاسخگو نگه‌داشتن این فناوری جدید را دارد.

کمی قبل‌تر از آن در ماه می جو بایدن، رئیس‌جمهور ایالات متحده طی درخواستی بر بررسی پیامدهای ناشی از توسعه هوش مصنوعی تأکید کرد و شناخت و مقابله با خطرات آن را برای جامعه، امنیت ملی و اقتصاد ضروری دانست و همچنین افزود: «از نظر من، شرکت‌های فناوری مسئولیت دارند که پیش از عرضه عمومی محصولات خود، از ایمنی آن‌ها اطمینان حاصل کنند.» او از اعضای کنگره خواست که یک قانون حریم خصوصی تصویب کنند. چنین قانونی شامل مواردی مانند محدودیت شرکت‌ها در جمع‌آوری داده‌های شخصی، ممنوعیت تبلیغات برای جامعه هدف کودکان و منع انتشار اطلاعات نادرست و… خواهد بود.

طی آخرین اخبار در آوریل، مایکا بنت، سناتور آمریکایی، لایحه‌ای ارائه کرده است که بر اساس آن کارگروهی برای بررسی سیاست‌های ایالات متحده در زمینه هوش مصنوعی و شناسایی راه‌های مناسب مقابله با هر گونه نقض حریم خصوصی و آزادی‌های مدنی در آمریکا تشکیل شده و روندهای قانونی نحوه توسعه این فناوری مشخص خواهد شد.

وزیر امنیت میهن آمریکا نیز اعلام کرد کارگروه هوش مصنوعی همچنین شیوه استفاده از این فناوری برای انجام بهتر کارها مانند بررسی محموله‌های ورودی به کشور برای ردیابی کالاهای غیرقانونی را مطالعه می‌کند.

وی همچنین خواستار استفاده از هوش مصنوعی جهت ایمن سازی شبکه توزیع برق و سیستم‌های ذخیره آب شد. بیم آن می‌رود که هر دو این زیرساخت‌ها هدف دشمنان قرار گیرند.

مایورکاس اعلام کرد این فناوری به طور گسترده‌ای چشم انداز تهدیدها را تغییر می‌دهد.

کارشناسان امنیتی در واشنگتن مدعی احتمال استفاده دشمنان خارجی از قابلیت‌های هوش مصنوعی برای ضربه‌زدن به امنیت ملی ایالات متحده شدند.

وظیفه این کارگروه بر اساس لایحه منتشر شده، شناسایی نقاط ضعف در فرایند نظارت بر هوش مصنوعی و ارائه پیشنهادهایی برای بهبود و اصلاح رویه‌ها خواهد بود. اعضای این کارگروه اعضای برخی از سازمان‌های دولتی مانند: دفتر مدیریت و بودجه، نهاد ملی استاندارد و فناوری، دفتر سیاست دانش و فناوری و افسران آزادی‌های مدنی و حریم خصوصی از وزارت‌خانه‌های دادگستری، امور خارجه، خزانه‎‌داری، دفاع و سایر دستگاه‌های اجرایی هستند.

بر اساس مفاد لایحه، تشکیل این کارگروه موقتی است و بعد از ۱۸ ماه، گزارش نهایی را ارائه کرده و سپس تعطیل می‌شود.

در پنجم ماه می جو بایدن، رئیس‌جمهور ایالات متحده آمریکا به دنبال لزوم تنظیم‌گری هوش مصنوعی در نشستی با حضور مدیران شرکت‌های هوش مصنوعی از جمله مایکروسافت و گوگل به‌وضوح اعلام کرد که شرکت‌ها موظف‌اند ایمنی پلتفرم‌هایشان را قبل از توسعه آن تضمین کنند. محورهای اصلی این جلسه شامل لزوم شفافیت بیشتر شرکت‌ها در مقابل سیاست‌گذاران، اهمیت ارزیابی این محصولات و نیاز به محافظت از آنان در مقابل حملات مخرب بود. همچنین در این جلسه به نگرانی‌هایی درباره هوش مصنوعی مانند نقض حریم خصوصی، تصمیم‌های غلط در استخدام که منجر به ازبین‌رفتن مشاغل شود و ایفای نقش هوش مصنوعی به‌عنوان ناشر اطلاعات نادرست اشاره شد.

 

بریتانیا؛ مسئولیت پذیر کردن شرکت‌ها از طریق رویکردهای غیرسختگیرانه

دولتمردان بریتانیایی در ماه آپریل اعلام کردند هوش مصنوعی علاوه بر مزایایی که در رشد و پیشرفت بشر دارد ممکن است مشکلاتی را درباره حریم خصوصی، حقوق بشر یا ایمنی افراد ایجاد کند. آن‌ها مدعی شدند که قوانین سخت‌گیرانه و سرکوبگر را راه‌حل مناسبی نمی‌دانند و قصد دارند رویکردهای منعطف‌تر و بر اساس اصولی مانند ایمنی، شفافیت، انصاف و مسئولیت‌پذیری را در پیش گیرند.

کمی بعد استفان آلموند، مدیر اجرایی ریسک‌های امنیت داده از دفتر کمیسری اطلاعات بریتانیا هوش مصنوعی مولد بخصوص «Chat GPT» متعلق به شرکت «OpenAI» را خطری بالقوه برای امنیت داده دانست و بر اهمیت چگونگی استفاده این فناوری از داده‌های شخصی تأکید کرد. او در ادامه به لزوم متعهدشدن سازمان‌هایی که از هوش مصنوعی استفاده می‌کنند به حفاظت از داده‌های شخصی اشاره کرد و پیامدهای اهمیت‌ندادن هوش مصنوعی به حریم شخصی را بزرگ و سخت دانست.

سرانجام بریتانیا در ماه مارس اعلام کرد که قصد دارد به‌جای ایجاد یک نهاد تنظیم‌گر جدید، مسئولیت مدیریت هوش مصنوعی را بین تنظیم‌کننده‌های حقوق بشر، سلامت و ایمنی و رقابت تقسیم کنند.

 

ایتالیا؛ فیلترینگ و مشروط سازی

ایتالیا در ماه مارس، «ChatGPT» را موقتاً ممنوع اعلام کرد، زیرا مقامات تنظیم‌گر حفاظت از داده‌ها نگرانی‌هایی را در مورد نقض حریم خصوصی، نقض مقررات «GDPR» و کاربران زیر ۱۳ سال داشتند. همچنین سازمان دیده‌بان ایتالیا در ۲۰ مارس گفت که هیچ مبنای قانونی برای توجیه «جمع‌آوری و ذخیره انبوه داده‌های شخصی» به‌منظور «آموزش» الگوریتم‌های زیربنایی عملکرد پلتفرم وجود ندارد.

ایتالیا از شرکت سازنده هوش مصنوعی جدید خواست ابزاری فراهم کند تا همه افرادی که داده‌هایشان در چت جی پی تی مورد استفاده است، بتوانند درخواست تصحیح یا حذف داده‌های شخصی خود که به‌طور نادرست توسط این سرویس ایجاد شده‌اند را مطرح کنند. OpenAI همچنین باید به غیر کاربران اجازه دهد تا «به روشی ساده و در دسترس» با پردازش داده‌های شخصی خود برای اجرای الگوریتم‌های چت جی پی تی مخالفت کنند.

همچنین از این شرکت خواسته شده تا پایان سپتامبر یک سیستم تأیید سن را راه اندازی کند تا دسترسی کاربران زیر ۱۳ سال به چت جی پی تی ممنوع شود.

کمتر از یک ماه پس از اعمال ممنوعیت‌هایی برای ChatGPT به دلیل نگرانی‌های مربوط به حریم خصوصی توسط ایتالیا، دولت این کشور در روز جمعه نسبت به رویکرد خود درباره چت‌بات OpenAI عقب نشینی کرد. تصمیم جدید ایتالیا پس از پاسخگویی این استارتاپ به نگرانی‌هایی که درباره حریم خصوصی و امنیت داده‌های کاربران در پلتفرم هوش مصنوعی آنها مطرح شده بود، اتخاذ شده است.

تدابیر بین‌المللی علیه هوش مصنوعی جدید

آلمان و اقدامی مشابه ایتالیا

همچنین در روزهای اخیر ۴۲ انجمن و اتحادیه تجاری آلمانی که نماینده بیش از ۱۴۰ هزار مؤلف و بازیگر هستند از اتحادیه اروپا خواسته اند سریع‌تر پیش نویس قوانین هوش مصنوعی را فراهم کند. آنها به تهدید «چت جی پی تی» برای کپی رایت آثارشان اشاره کردند.

در این نامه به اهمیت نگرانی‌های روزافزون درباره هوش مصنوعی مولد مانند چت جی پی تی که می‌تواند از انسان‌ها تقلید کند و متن و تصویر بسازد، نیز پرداخته شده است.

در بخشی از این نامه آمده است: استفاده غیرمجاز از محتوای آموزشی محافظت شده، پردازش غیرشفاف آن و جایگزین کردن قابل پیش بینی منابع با محصول خروجی هوش مصنوعی مولد سوالاتی بنیادین درباره مسئولیت پذیری و پاداش ایجاد می‌کند که باید قبل از ایجاد آسیب‌های جبران ناپذیر، به آنها پرداخته شود. هوش مصنوعی مولد باید در مرکز هر قانون مربوط به بازار هوش مصنوعی باشد.

از سوی دیگر به نظر می‌رسد آلمان در نظر دارد به دلیل نگرانی در مورد حریم خصوصی، استفاده از چت جی‌پی‌تی را ممنوع کند. به گزارش ایندیپندنت، اولریش کلبر، رئیس حفاظت از داده‌های کشور آلمان، به روزنامه هندلسبلات (Handelsblatt) گفت: «به دنبال ممنوعیت چت جی‌پی‌تی در ایتالیا، ناظران آلمانی با همتایان ایتالیایی خود در ارتباط هستند و حالا این احتمال وجود دارد که چنین اقدامی در آلمان نیز صورت بگیرد.»

 

ژاپن؛ اجلاس G۷ و بیانیه پایانی با محوریت هوش مصنوعی

وزرای کشورهای عضو گروه ۷ معتقدند باید قوانینی مبتنی بر ریسک برای هوش مصنوعی به کار گیرند.

این در حالی است که قانونگذاران اروپایی سعی دارند هرچه سریع‌تر یک قانون مرتبط با ابزارهای نوظهوری مانند چت جی پی تی وضع کنند البته طبق بیانیه مشترک وزرای گروه ۷، قانون مذکور باید یک محیط باز و توانمند برای توسعه فناوری‌های هوش مصنوعی را حفظ کند و مبتنی بر ارزش‌های دموکراتیک باشد.

این بیانیه در پایان اجلاس ۲روزه گروه در ژاپن صادر شده است.

هر چند به اعتقاد وزرا ممکن است ابزارهای سیاستگذاری برای دستیابی به چشم اندازی یکسان و هدف ایجاد یک سیستم هوش مصنوعی ایمن بین کشورهای عضو این گروه متفاوت باشد، اما توافق مذکور نقطه عطفی در زمینه نظارت کشورهای پیشرفته بر هوش مصنوعی در بحبوحه اوج گیری نگرانی‌های حریم خصوصی و ریسک‌های امنیتی است.

مارگارت وستاگر کمیسر رقابت اتحادیه اروپا پیش از توافق در این باره گفت: نتیجه گیری اجلاس گروه ۷ نشان می‌دهد ما در زمینه قانونگذاری برای هوش مصنوعی تنها نیستیم.

در بخش دیگری از بیانیه وزرای این گروه آمده است: ما تصمیم داریم در آینده مذاکرات درباره هوش مصنوعی مولد را در اجلاس‌های گروه ۷ ادامه دهیم. در این مذاکرات احتمالاً موضوعاتی مانند نظارت، چگونگی حفاظت از حقوق مالکیت معنوی از جمله کپی رایت، ترویج شفافیت، بررسی اطلاعات اشتباه (از جمله اطلاعاتی که توسط نیروهای خارجی دستکاری می‌شود) مورد بحث قرار می‌گیرد.

در این میان ژاپن که رئیس گروه ۷ در سال جاری است، روشی آسانگیرانه تر در خصوص توسعه دهندگان هوش مصنوعی در پیش گرفته و خواستار پشتیبانی عمومی و صنعتی از توسعه هوش مصنوعی شده است.

ژاپن امیدوار است تا گروه ۷ را به یک فرایند نظارتی انعطاف پذیر به جای قوانینی سختگیرانه در خصوص هوش مصنوعی متقاعد کند.

 

روسیه؛ گیگا چت بومی

بانک روسی «اسبربانک» (Sberbank) رقیب چت جی پی تی به نام «گیگاچت» را ارائه کرده است. این فناوری در حال حاضر در وضعیت آزمایشی است و افراد با استفاده از دعوتنامه می‌توانند از آن استفاده کنند.

به گفته اسبربانک نکته متمایز گیگاچت توانایی برقراری ارتباط هوشمندانه‌تر به زبان روسی نسبت به سایر شبکه‌های عصبی خارجی است.

اسبربانک یا بانک پس‌انداز فدراسیون روسیه بزرگترین بانک در روسیه و اروپای شرقی است که در سال‌های اخیر سرمایه گذاری عظیمی در این فناوری کرده است. هدف این بانک کاهش اتکای کشور به واردات است زیرا پس از حمله روسیه به اوکراین کشورهای غربی صادرات را به شدت کاهش داده و تحریم‌های علیه آن وضع کرده اند.

 

ضرورت پیوست نگاری برای فناوری‌های نوظهور

«علی زرودی»، پژوهشگر فضای مجازی و مدرس دانشگاه، در گفتگو با خبرنگار مهر درباره تهدیدات بالقوه هوش مصنوعی گفت: هوش مصنوعی مانند بسیاری از فناوری‌های نوظهور گذشته، گرچه مزایای شگفت‌انگیزی دارد و فرصت‌های بی‌بدیلی می‌آفریند؛ اما جوامع بشری را با تهدیدات بزرگی مواجه می‌کند. یکی از مهمترین این تهدیدات نقض امنیت داده و حریم خصوصی است.

وی افزود: تهدید دیگر بیکارشدن بخشی از نیروی کار فعلی جوامع است. افزایش نظارت دولت‌ها و شرکت‌های صاحب فناوری بر کاربران، افزایش دستکاری در افکار عمومی به واسطه تسهیل تولید و انتشار محتوای نادرست و جعلی (مانند ساخت ویدئوی جعلی از سخنرانی یک شخصیت مشهور)، پیچیده‌تر شدن حملات سایبری، جاسوسی و باج‌افزارها نیز از دیگر تهدیدات این فناوری محسوب می‌شوند.

پژوهشگر فضای مجازی گفت: البته هوش مصنوعی برای تقابل با این تهدیدات هم یاریگر انسان‌ها خواهد بود؛ به عنوان مثال تقویت «دفاع سایبری» از مزایای این فناوری محسوب می‌شود. نکته دیگر این است که پیش‌بینی این تهدیدات و اتخاذ تدابیر تنظیم‌گرانه برای مقابله با آن‌ها مهم و ضروری است.

وی در ادامه و در مورد دلیل تمرکز نهادهای تنظیم‌گر جهان بر حوزه فناوری هوش مصنوعی افزود: وظیفه قانون‌گذاران و به طور کلی حکمرانان یک جامعه، تضمین منافع و مصالح عمومی آن جامعه است. هدف محوری شرکت‌های هوش مصنوعی مانند سایر شرکت‌ها در بخش خصوصی، بیشینه کردن سود تجاری است. بنابراین این شرکت‌ها به دنبال خلاقیت و نوآوری روزانه هستند. از آنجا که مطابق نظریات جامعه شناختی، سرعت تغییرات ارزشی و هنجاری در یک جامعه بسیار کمتر از سرعت تغییرات فناوری در آن جامعه است (که اصطلاح تأخر فرهنگی/Cultural Lag را برای این پدیده استفاده می‌کنند) تحولات روزانه فناوری‌ها موجب اختلال در سیستم ارزشی جوامع می‌شود.

زرودی افزود: اگر این تحول فناورانه، به صورت وارداتی باشد، شدت تأخر فرهنگی و اختلال ذکر شده بیشتر خواهد بود. تحولات سیستم ارزشی جامعه پیامدهایی برای سایر سیستم‌ها همچون سیاست، فرهنگ، اقتصاد، تربیت و… دارد و منافع عمومی را به خطر می‌اندازد. قانون‌گذار به ویژه در کشورهایی که واردکننده فناوری هستند، تلاش می‌کند تا با محدودکردن شرکت‌های فناوری از اختلالات ذکر شده بکاهد. به عنوان مثال بریتانیا و اتحادیه اروپا که در زمینه تحولات فناوری از شرکت‌های آمریکایی عقب افتاده‌اند و محصولات فناورانه داخلی آن‌ها نمی‌تواند با محصولات شرکت‌های آمریکایی رقابت کند، به مقررات‌گذاریِ حداکثری برای شرکت‌های آمریکایی روی آورده‌اند.

وی در این مورد گفت: فناوری‌های نوظهور همواره می‌تواند شتاب پیشرفت اقتصادی را بیشتر کند مشروط به آنکه رویکرد فعالانه (بدون تأخیر، آینده‌نگرانه و مبتنی بر طراحی بومی) وجود داشته باشد و زیرساخت‌های حقوقی، اقتصادی، اجتماعی و سیاسی لازم برای توسعه آن فناوری مهیا شود. با درنظر گرفتن چنین شرایطی، فناوری نوظهور می‌تواند در مسیر پیشرفت، جهش ایجاد کند.

هر یک روز تأخیر ما برای ورود به طراحی اکوسیستم بومی یک فناوری منجر به این می‌شود که در آن فناوری عقب‌مانده و بدون قدرت باشیم. اقتضای حکمرانی فعال، غنیمت شمردن فرصت‌هاست

پژوهشگر فضای مجازی و مدرس دانشگاه اظهار داشت: تاکنون چنین مواجهه مطلوبی با فناوری‌های نوظهور نداشته‌ایم. اقدامات گذشته ما منفعلانه بوده است. یا جلوی یک فناوری را گرفته‌ایم یا در نهایت آن را وارد کرده و برایش پیوست فرهنگی و زیست محیطی و… نوشته‌ایم. پیوست‌نگاری برای فناوری‌های نوظهور حتی اگر نوع پیوست‌نگاری پیشینی (یعنی پیش از ورود فناوری به کشور) باشد، اقدامی منفعلانه است. اقدام فعالانه در مواجهه با فناوری جدید، طراحی بومی باشد ضروری است. چند سال قبل که ما از ضرورت طراحی بومی اینترنت اشیا صحبت می‌کردیم، برخی این موضوع را باور نداشتند تا اینکه در دو سال گذشته، آفکام در رویکرد جدید خود برای توسعه سواد رسانه‌ای، اقدام به تعامل با پلتفرم‌ها کرده است تا طراحی پلتفرم‌ها متناسب با اصول سواد رسانه‌ای مدنظر آفکام باشد. درواقع مقررات و ارزش‌ها را در مرحله طراحی فناوری پیاده‌سازی می‌کند. بعد از این اقدام آفکام، حرف ما نیز درخصوص طراحی بومی اینترنت اشیا شنیده شد. امروز هم همین موضوع درمورد هوش مصنوعی و سایر فناوری‌ها وجود دارد. هر یک روز تأخیر ما برای ورود به طراحی اکوسیستم بومی یک فناوری منجر به این می‌شود که در آن فناوری عقب‌مانده و بدون قدرت باشیم. اقتضای حکمرانی فعال، غنیمت شمردن فرصت‌هاست.

به گزارش مهر، هوش مصنوعی‌هایی مانند «ChatGPT» مزایای بسیاری دارند، این پلتفرم‌ها می‌توانند سرعت رشد و توسعه علم را بالا برده و به تجارت، اکتشاف، آموزش، سیاست‌گذاری و بسیاری از مسائل خرد و کلان زندگی بشر رونق بیشتری داده و کیفیتشان را بالا ببرد؛ اما بی‌اهمیتی به معایب آن و اقدام‌نکردن به‌موقع برای تنظیم‌گری درست و به‌قاعده می‌تواند آثار جبران‌ناپذیری داشته باشد که نه‌تنها خود آسیب می‌زنند بلکه مزایای هوش مصنوعی را هم عملاً بی‌فایده خواهند کرد.

مراقب سوالاتی که از ChatGPT می‌کنید باشید

دوشنبه, ۱۸ ارديبهشت ۱۴۰۲، ۰۵:۰۲ ب.ظ | ۰ نظر

غزال زیاری- خبرآنلاین - به‌صورت پیش‌فرض، OpenAI از پیغام‌هایی که شما برای ChatGPT ارسال می‌کنید، برای آموزش و پیشرفت مدل‌هایش بهره می‌برد ولی کاربران این امکان را دارند که با بهره‌گیری از فعال کردن "حالت ناشناس" در این پلتفرم، مانع از انجام این کار شوند.

با عرصه و ارائه فناوری‌های جدید در دنیا، مدت زمانی طول می‌کشد تا مسائل متعددی از جمله حریم خصوصی و امنیتی آن تعریف و تعیین شود و حالا این موضوع درمورد ChatGPT نیز صادق است. این مدل زبانی مولد متن که با بهره‌گیری از هوش مصنوعی کار می‌کند، در نوع خود بی‌نظیر و خیره‌کننده است؛ اما حالا تردیدهایی در مورد نحوه جمع‌آوری و پردازش داده‌های ما توسط این ابزارها ایجاد شده است.

توسعه‌دهندگان ChatGPT، این مدل زبانی بزرگ را بر پایه حجم وسیعی از متون در دسترس و موجود در اینترنت تعلیم داده‌اند. ولی این ربات چت‌بات، علاوه بر این داده‌ها، از گفتگوهایی که با شما دارد نیز برای یادگیری استفاده می‌کند. پس اگر می‌خواهید از حریم خصوصی‌تان محافظت کنید، باید بدانید که شرایط و گزینه‌های پیش رو چیست؛ تا چه اندازه باید به ChatGPT اطلاعات بدهید و چه بایدها و نبایدهایی در این مسیر وجود دارد.

در این مقاله سه نکته مشخص را به شما یادآوری می‌کنیم:

فعال کردن حالت ناشناس در ChatGPT

به‌صورت پیش‌فرض، OpenAI از پیغام‌هایی که شما برای ChatGPT ارسال می‌کنید، برای آموزش و پیشرفت مدل‌هایش بهره می‌برد ولی کاربران این امکان را دارند که با بهره‌گیری از فعال کردن "حالت ناشناس" در این پلتفرم، مانع از انجام این کار شوند.

برای فعال کردن این حالت، ChatGPT را در مرورگر خود باز کنید، بر روی نام کاربری خود در سمت چپ کلیک کرده و وارد بخش تنظیمات شوید. در کنار گزینه Data Controls، روی Show کلیک کرده و گزینه Chat History & Training را خاموش کنید.

از حالا به بعد، هر زمانی که برگه مرورگر خود را ببندید، گزارش گفتگوهای شما با ChatGPT از حسابتان ناپدید می‌شود؛ البته این بدان معنا نیست که این گفتگوها کاملا از بین بروند ( چرا که OpenAI، تاریخچه گفتگوها را برای ۳۰ روز نگاه می‌دارد تا برای "نظارت بر سوءاستفاده‌های احتمالی" آنها را در اختیار داشته باشد و بعد از سی روز این گفتگوها پاک خواهند شد.)

در منوی Data Controls، یک گزینه به نام Export Data نیز در اختیار شماست. استفاده از این گزینه تاثیری بر نحوه استفاده OpenAI از اطلاعات شما و یا پاک کردن اطلاعاتی که تا حالا جمع‌آوری کرده ندارد؛ بلکه به شما در مورد آنچه OpenAI از شما می‌داند، ایده بهتری می‌دهد. این ممکن است شامل گفتگوهایی که پاک نکرده‌اید و یا بازخوردهایی که به سوالات ChatGPT داده‌اید، باشد.

اگر موضوعی است که شما با آن احساس راحتی نمی‌کنید، می‌توانید به صورت دستی، تاریخچه گفتگوها را پاک کنید. به صفحه ChatGPT خود برگردید، بر روی نام کاربری‌تان کلیک کرده و سپس وارد بخش Clear Conversations بشوید تا به یک باره کل گفتگوها را پاک کنید. یا می‌توانید روی علامت سطل زباله در کنار هر گفتگوی خاص کلیک کنید تا آن گفتگو را به کلی پاک کنید.

ChatGPT قادر نخواهد بود تا از متن گفتگوهای پاک شده، برای یادگیری استفاده کند ولی بسته به مدت زمانی که سابقه گفتگوهای شما موجود باشد، ربات چت ممکن است قبل از آنکه شما تصمیم به پاک کردن‌شان بگیرید، از آنها استفاده کند. پس برای جلوگیری از این اتفاق، یا درصورتی که فردی به کامپیوتر شما دسترسی پیدا کرده و بخواهد تا به گفتگوهای شما با ChatGPT نگاهی بیندازد، این فکر خوبی است که هر چند وقت یک بار، تاریخچه گفتگوهایتان را سر و سامان بدهید.

در نهایت، اگر دیگر نخواستید تا با ChatGPT صحبت کنید، همیشه این امکان برایتان فراهم است که حساب کاربری‌تان را پاک کنید که این کار را می‌توانید از پنل Data controls انجام دهید.

مراقب صحبت‌هایتان با ChatGPT باشید

ChatGPT ممکن است به‌صورت طبیعی و روزمره پاسخگوی شما باشد؛ ولی هرگز به هوش مصنوعی مثل یک دوست یا مشاور اعتماد نکنید. اسناد پشتیبانی رسمی این پلتفرم به کاربران توصیه می‌کند که هیچ اطلاعات شخصی را با چت‌بات به اشتراک نگذارند. چون مشخص کردن اینکه در آینده به چه ترتیب از اطلاعات شما استفاده شده و مورد تجزیه و تحلیل قرار خواهد گرفت، سخت است.

خط مشی رازداری و حریم خصوصی چت بات، گفته که OpenAI داده‌هایی مثل گفتگوها و ویژگی‌هایی که با آن سروکار دارید را ثبت می‌کند و ممکن است اطلاعات جمع‌آوری شده از جمله آمار کاربران را با اشخاص ثالث به اشتراک بگذارد. مثلا کمپانی OpenAI، در واکنش به درخواست‌های قانونی مجریان قانون، ممکن است اطلاعات شخصی کاربران مثل آدرس ایمیل آنها و یا داده‌های موقعیت مکانی‌شان را در اختیار شرکت‌های وابسته قرار دهند. ولی حتی اطلاعات ارائه شده در این رابطه نیز مبهم است و مشخص نیست که شرکت‌های وابسته‌ای که OpenAI ممکن است اطلاعات‌مان در اختیارشان قرار بگیرد، چه شرکت‌هایی هستند؟

این یک خط مشی رازداری استاندارد است و قوانین ChatGPT هم مشابه با اکثر پلتفرم‌های آنلاین است: در نتیجه هر چه اطلاعات کمتری به اشتراک بگذارید، بهتر خواهد بود. این ماجرا نه تنها شما را در برابر اقدامات مشکوک حریم خصوصی که OpenAI ممکن است در آینده پیش بیاید محافظت می‌کند، بلکه از شما در مقابل هرگونه باگ و هک شدن‌های احتمالی نیز مراقبت خواهد کرد. به عنوان مثال، قطعی اخیر ChatGPT منجر به این شد که افراد تیتر تاریخچه گفتگوهای کاربران فعال دیگر را ببینند.

اگر هر گونه اطلاعات عمومی از شما در اینترنت وجود داشته باشد، ChatGPT قادر خواهد بود تا به دیگران کاربران، درباره شما اطلاعاتی بدهد و اگر این موضوع برایتان هنوز ترسناک به نظر نمی‌رسد، به این فکر کنید که اگر روزی اشتباهاتی رخ دهد، چه خواهد شد. اگر قصد دارید تا موارد نادرست را اصلاح کرده یا تنها مانع از آن شوید که ChatGPT اطلاعاتی از شما داشته باشد، می‌توانید یک فرم خاص را پر کرده و یا از طریق ایمیل dsar@openai.com با کمپانی OpenAI تماس بگیرید و یا در سایت این پلتفرم اطلاعات بیشتری کسب کنید.

درمورد برنامه‌های شخص ثالث ChatGPT محتاط باشید

تا اینجا هر آنچه باید در هنگام استفاده از پلتفرم ChatGPT بدانید را گفتیم؛ اما این تنها جایی نیست که با ربات‌های چت بات مواجه می‌شوید. کمپانی OpenAI به اپلیکیشن‌ها و پلاگ-این‌های شخص ثالث نیز اجازه می‌دهد تا برپایه این پلتفرم کار کنند و در صورت استفاده از هریک از آنها، باید در مورد مجموعه تازه‌ای از مسائل حریم خصوصی و امنیتی نیز فکر کنید.

وقتی بحث استفاده از یک اپلیکیشن یا افزونه مرورگرهایی که برپایه ChatGPT کار می‌کنند، مطرح می‌شود، باید دقیقا همان دقتی که در استفاده از هر ابزار شخص ثالث دیگر اعمال می‌کنید را مدنظر قرار دهید: اجازه‌هایی که از شما گرفته می‌شود را بررسی کنید؛ Privacy Policy (خط مشی رازداری) و شرایط و ضوابط را مطالعه کنید و درباره هزینه‌های مرتبط، چه هزینه اشتراک باشد و چه پرداخت‌های درون برنامه‌ای مطلع شوید.

به محض آنکه چیزی مثل ChatGPT به محبوبیت برسد، کلاهبرداران و هکرها نیز به سراغش می‌آیند. از همین رو توصیه می‌شود که همیشه درباره پیشینه توسعه دهنده پشت هر ابزار ChatGPT که از آن استفاده می‌کنید، اطلاعاتی کسب کنید.

باید این را بدانید که قابل اعتمادترین برنامه‌ها ، تنظیمات حریم خصوصی و امنیتی خاص خود را دارند که می‌توانید شخصا آنها را تنظیم کنید.

آموزش چت جی‌پی‌تی با داده کاربران متوقف شد

يكشنبه, ۱۷ ارديبهشت ۱۴۰۲، ۰۶:۱۳ ب.ظ | ۰ نظر

مدیر ارشد اجرایی سازنده چت جی پی تی اعلام کرد از این پس از داده های API مشتریان برای آموزش های مدل هوش مصنوعی زبانی خود استفاده نمی کند. زیرا مشتریان از این روند ناراضی بوده اند.

به گزارش خبرگزاری مهر به نقل از سی ان بی سی، به گفته سم آلتمن مدیر ارشد اجرایی «اوپن آ.آی»، این شرکت برای مدتی مدل های زبانی خود مانند چت جی پی تی را با داده های خریداری شده کاربران آموزش می داد.

او در مصاحبه ای گفت: مشتریان به وضوح نمی خواهند سیستم های ما با داده هایشان آموزش یابد، بنابراین ما برنامه خود را تغییر دادیم و این کار را انجام نمی دهیم.

در همین راستا شرایط خدمات «اوپن آ. آی» در یکم مارس بی سروصدا تغییر کرد. آلتمن در این باره افزود: ما براساس هیچ داده API سیستم هایمان را آموزش نمی دهیم. اکنون مدتی است که این کار را انجام نمی دهیم.

APIها درحقیقت چهارچوب هایی هستند که به مشتریان اجازه می دهند به طور مستقیم به نرم افزار اوپن آ. آی متصل شوند.

مشتریان تجاری این شرکت که مایکروسافت، سلز فورس و اسنپ چت را شامل می شوند، احتمالا از قابلیت هایAPI بهره می برند.

اما سیاست جدید حریم خصوصی و حفاظت از داده اوپن آ. آی فقط شامل مشتریانی می شود که از سرویس هایAPI استفاده می کنند. در شرایط استفاده آپدیت شده شرکت آمده است: ما احتمالا از محتوای سرویس های دیگر به غیر از API کاربران استفاده می کنیم.

این امر ممکن است شامل متنی باشد که کارمندان در چت بات چت جی پی تی وارد می کنند. آمازون اخیرا به کارمندانش هشدار داده داده های محرمانه را در چت جی پی تی وارد نکنند زیرا ممکن است داده ها در پاسخ های این چت بات ظاهر شود.

تغییر مذکور در حالی اجرا می شود که صنایع با وجوه مختلف مدل های زبانی بزرگ جایگزین محتوای تولید انسان روبرو می شوند.

از سوی دیگر مدیران ارشد اجرایی شرکت ها نگران تاثیر چت جی پی تی و برنامه های مشابه بر مالکیت معنوی شان هستند.

اعتصاب نویسندگان هالیوود: هوش مصنوعی سارق است

يكشنبه, ۱۷ ارديبهشت ۱۴۰۲، ۰۴:۲۴ ب.ظ | ۰ نظر

انجمن نویسندگان آمریکا به دنبال محدود کردن استفاده از هوش مصنوعی برای نوشتن فیلمنامه‌ها است و در این راستا نویسندگان دست به اعتصاب زدند.
به گزارش فارس به نقل از سی‌ان‌ان، اختلاف بر سر هوش مصنوعی یکی از چندین موضوعی است که نویسندگان سینما و تلویزیون هالیوود را به اعتصاب کشاند و اولین توقف کار در 15 سال گذشته را رقم زد.

دهه‌ها است نویسندگان هالیوود  فیلمنامه‌های علمی تخیلی می‌نویسند که نشان می‌دهد ماشین‌هایی دنیا را در دست گرفته‌اند. اکنون، آنها برای اینکه مطمئن شوند ربات‌ها بی کارشان نمی‌کنند اعتصاب کردند.

اختلاف بر سر هوش مصنوعی یکی از چندین موضوعی است که نویسندگان سینما و تلویزیون هالیوود را به اعتصاب سوق داد. هوش مصنوعی در هالیوود، در رفع چین و چروک صورت مجریان مسن، حذف فحاشی بیش از حد دیالوگ بازیگران و کمک به ساخت فیلم‌های کوتاه انیمیشن مفید بوده است. علاوه بر این، برخی از نویسندگان نیز شروع به بررسی استفاده از هوش مصنوعی برای ساخت فیلمنامه ها کرده اند.

اما نویسندگان می ترسند که توسط هوش مصنوعی کنار گذاشته شوند یا در اولویت های بعدی قرار گیرند. به عنوان مثال، استودیوها به جای اینکه برای نوشتن پیش نویس اول نویسندگان را استخدام کنند، شاید آنها را برای انجام پیش نویس دوم به کار گیرند که هزینه کمتری دارد.

 انجمن نویسندگان آمریکا پیشنهادی ارائه کرد مبنی بر اینکه هر چیزی که توسط یک سیستم هوش مصنوعی مانند چت‌جی‌پی‌تی ایجاد می شود، نباید به عنوان مطالب ادبی در نظر گرفته شود. در اصل، اگر یک مدیر استودیو یک فیلمنامه تولید شده توسط هوش مصنوعی را برای بازبینی در اختیار نویسنده قرار دهد، نمی‌تواند به نویسنده با نرخ پایین‌تری برای بازنویسی کار دستمزد بدهد.

این اتحادیه همچنین مدعی است که از فیلم نامه های فعلی نباید برای آموزش هوش مصنوعی استفاده شود، زیرا ممکن است منجر به سرقت مالکیت معنوی شود.

آن ها می خواهند که هوش مصنوعی از کسب و کار نوشتن فیلمنامه دور باشد و سعی در جایگزینی نویسندگان نکند.

طبق اعلام دولت بایدن قرار است ۱۴۰ میلیون دلار صرف تحقیق و توسعه درباره هوش مصنوعی شود، این در حالی است که استفاده از این فناوری رو به افزایش است.
به گزارش خبرگزاری صدا و سیما به نقل از روزنامه آمریکایی دِ هیل، دولت بایدن اعلام کرد در شرایط فعلی که هوش مصنوعی میان کاربران رونق گرفته، ۱۴۰ میلیون دلار برای تحقیق و توسعه درباره این فناوری سرمایه گذاری خواهد کرد.

همراه با بودجه، دفتر مدیریت و بودجه (OMB) در ماه‌های آینده دستورالعمل‌های سیاستی در مورد استفاده از هوش مصنوعی توسط دولت فدرال را صادر خواهد کرد و شرکت‌هایی که هوش مصنوعی را توسعه می‌دهند، مانند گوگل، مایکروسافت و OpenAI، متعهد شده‌اند که در ارزیابی عمومی سیستم‌های هوش مصنوعی شرکت کنند.

بنیاد ملی علوم ۱۴۰ میلیون دلار را برای راه اندازی هفت موسسه تحقیقاتی ملی هوش مصنوعی سرمایه گذاری خواهد کرد و تعداد کل این موسسات را در آمریکا به ۲۵ عدد خواهد رساند.

تعهدات شرکت‌هایی که هوش مصنوعی را توسعه می‌دهند، بخشی از تلاش برای ارائه اطلاعات به محققان و مردم در مورد مدل‌های هوش مصنوعی و چگونگی هماهنگی مدل‌ها با اصولی که در طرح لایحه هوش مصنوعی دولت آمریکا که اخیرا برای کاهش آسیب‌های سیستم‌های خودکار منتشر شده، هماهنگ می‌کنند.

در پاسخ به این سوال که آیا نیازی به استاندارد‌های بین المللی در مورد هوش مصنوعی نیز وجود دارد، مقامات ارشد آمریکا گفتند: ما باید یک قدم برداریم و افزودند که هوش مصنوعی یک فناوری جهانی است و همکاری با شرکای اروپایی ضروری خواهد بود.

استفاده از هوش مصنوعی اخیرا رشد داشته و سیاست‌گذاران و تنظیم‌کننده‌ها در حال مبارزه با چگونگی مقابله با نگرانی‌های ناشی از آن هستند. رشد سریع این فناوری نگرانی‌هایی را در مورد خطر اطلاعات نادرست، کلاهبرداری و جمع آوری داده‌ها ایجاد می‌کند.

ایویت کلارک، نماینده مجلس لایحه‌ای را ارائه کرد که گروه‌ها یا پویش‌های سیاسی را ملزم می‌کند تا استفاده از محتوای ایجاد شده توسط هوش مصنوعی در تبلیغات سیاسی را افشا کنند. این در حالی است که کارگروه ملی جمهوری خواه اولین تبلیغ خود را با محتوای تولید شده توسط هوش مصنوعی پس از اعلام نامزدی بایدن برای انتخابات ریاست جمهوری آمریکا منتشر کرد.

همچنین در این هفته، لینا خان، رئیس کمیسیون تجارت فدرال متعهد شد این آژانس در نظارت بر استفاده‌های ناعادلانه یا فریبنده از هوش مصنوعی هوشیار باشد.

بریتانیا و آمریکا در بحث رقابت برای توسعه فن آوری هوش مصنوعی مداخله کرده اند، بخش ناظر رقابتی هوش مصنوعی بریتانیا بررسی این بخش را آغاز کرد و همچنین کاخ سفید به شرکت های فن آوری در مورد مسئولیت اساسی خود برای توسعه محصولات ایمن توصیه نمود.
قانونگذاران تحت فشار فزاینده ای برای مداخله هستند، چرا که ظهور مولدهای زبانی مبتنی بر هوش مصنوعی مانند چت جی پی تی (ChatGPT) نگرانی هایی را در مورد گسترش بالقوه اطلاعات نادرست، افزایش تقلب و تاثیر بر بازار مشاغل ایجاد میکند و ایلان ماسک در میان نزدیک به ۳۰ هزار امضا کننده نامه ای که ماه گذشته منتشر شد ،خواستار توقف پروژه های مهم شد.

سازمان رقابت و بازارهای بریتانیا (CMA) اعلام کرد که به بررسی سیستم های اساسی یا مدل های بنیادی ابزارهای هوش مصنوعی خواهد پرداخت. یکی از کارشناسان حقوقی، بررسی هایی به عنوان یک پیش نیاز برای این بخش توصیف کرده است، یافته های این کارشناس ماه سپتامبر منتشر خواهد شد.
دولت آمریکا نیز اقداماتی را برای مقابله با خطرات توسعه هوش مصنوعی اعلام کرد؛ به طوری که کاملا هریس، معاون رئیس جمهور، با مدیران ارشد در خط مقدم پیشرفت های سریع این صنعت ملاقات کرد. کاخ سفید در بیانیه ای اعلام کرد شرکت هایی که این فن آوری را توسعه میدهند، مسئولیتی اساسی دارند تا پیش از گسترش یا عمومی شدن، از ایمن بودن محصولات خود مطمئن شوند.
این نشست یک هفته به طول انجامید و در جریان آن گروهی از دانشمندان و رهبران کسب وکار ،هشدارهایی را در مورد سرعت اختلال این فن آوری در صنایع مستقر صادر کردند.

جفری هینتون، پدرخوانده هوش مصنوعی، گوگل را ترک کرد تا آزادانه‌تر در مورد خطرات این فناوری صحبت کند، این در حالی است که سر پاتریک والانس، مشاور علمی سابق دولت بریتانیا با بیان اینکه تاثیر هوش مصنوعی بر مشاغل می تواند به بزرگی تاثیر انقلاب صنعتی باشد، از وزرا خواست تا از تغییرات عمیق اجتماعی و اقتصادی که می تواند توسط هوش مصنوعی ایجاد شود، جلوگیری کنند.

سارا کاردل میگوید هوش مصنوعی این پتانسیل را دارد که نحوه رقابت کسب وکارها را تغییر دهد؛ اما باید از مصرف کنندگان محافظت کرد.

مدیر اجرایی سازمان رقابت و بازارهای بریتانیا ( CMA) گفت: هوش مصنوعی در چند ماه گذشته به آگاهی عمومی نفوذ کرده است و مردم در برابر مسائلی مانند اطلاعات نادرست یا گمراه کننده محافظت میشوند.بسیار مهم است که مزایای بالقوه این فناوری متحول کننده به راحتی برای مشاغل و مصرف کنندگان بریتانیا قابل دسترسی باشد.
سرویس چت جی پی تی (ChatGPT) و رقیب گوگل یعنی بارد  (Bard) در پاسخ به درخواست های کاربران در معرض ارائه اطلاعات غلط هستند، در حالی که نگرانیهایی در مورد کلاهبرداری های صوتی مبتنی بر هوش مصنوعی مطرح شده است. سازمان ضد اطلاعات نادرست، نیوز گارد (NewsGuard) در این هفته اعلام کرد که چت بات هایی که وانمود میکنند روزنامه نگار هستند، تقریبا ۵۰ مزرعه مجهز به هوش مصنوعی را اداره مینمایند. ماه گذشته، آهنگی با آوازهای جعلی ساخته‌شده توسط هوش مصنوعی که ادعا میشد درک و ویکند  (Drake and the Weeknd)  هستند، از سرویس‌های استریم حذف شد.

در ایالات متحده، هریس با مدیران ارشد اوپن آی (OpenAI)، آلفابت و مایکروسافت در کاخ سفید دیدار کرد و اقداماتی را برای رسیدگی به خطرات توسعه بدون کنترل هوش مصنوعی مطرح کرد.در بیانیه ای پس از جلسه، هریس گفت که به مدیران اجرایی گفته است که بخش خصوصی مسئولیت اخلاقی، معنوی و قانونی برای تضمین ایمنی و امنیت محصولات خود را  بر عهده دارند.

دولت اعلام کرد که در هفت موسسه تحقیقاتی ملی جدید هوش مصنوعی سرمایه گذاری خواهد کرد تا پیشرفت های هوش مصنوعی را دنبال کند که قابل اعتماد، مسئولیت پذیر و در خدمت منافع عمومی هستند. توسعه هوش مصنوعی تحت سلطه بخش خصوصی است و صنعت فن آوری در سال گذشته ۳۲ مدل ماشین یادگیری قابل توجه تولید کرده است، در حالی که سه مدل توسط دانشگاه تولید شده است.

توسعه دهندگان برجسته هوش مصنوعی نیز با ارزیابی عمومی سیستم های خود در کنفرانس امنیت سایبری دیفکن 31 (Defcon 31)  امسال موافقت کرده اند.موسساتی که در این کنفرانس شرکت خواهند کرد شامل اوپن آی (OpenAI)، گوگل، مایکروسافت و هوش مصنوعی استابیلیتی (Stability)  میباشد.

همچنین به اتحادیه اروپا هشدار داده شد که باید از تحقیقات مردمی هوش مصنوعی محافظت نماید یا ریسک واگذاری کنترل توسعه فناوری به شرکت‌های آمریکایی را بپذیرد.اروپا نمیتواند حق حاکمیت هوش مصنوعی را از دست بدهد. حذف تحقیق و توسعه منبع باز، جامعه علمی و اقتصاد اروپا را به شدت به چند شرکت خارجی و اختصاصی برای زیرساخت های ضروری هوش مصنوعی وابسته خواهد کرد.

کریستف شوهمان، رهبر سازمانی در شرکت لایون  ( Laion)گفت: ما در حال کار روی هوش مصنوعی منبع باز هستیم، زیرا فکر می‌کنیم این نوع هوش مصنوعی ایمن‌تر، در دسترس‌تر و آزاد‌تر خواهد بود. منبع:  سایبربان

آغاز تحقیقات انگلیس درباره خطرات هوش مصنوعی

جمعه, ۱۵ ارديبهشت ۱۴۰۲، ۰۲:۴۰ ب.ظ | ۰ نظر

رگولاتور رقابت انگلیس تحقیقی درباره صنعت هوش مصنوعی آغاز کرده تا نگرانی های احتمالی مربوط به رقابت و حقوق مصرف کننده را برطرف کند.
به گزارش خبرگزاری مهر به نقل از رویترز، این درحالی است که مایکروسافت و گوگل حالت تدافعی نسبت به این فناوری دارند.

این تحقیق روی مدل های بنیادینی مانند مدل های زبانی بزرگ و هوش مصنوعی مانند ابزاری که شرکت اوپن آ. آی ابداع کرده، متمرکز است.

مدل های بزرگ زبانی سیستم های هوش مصنوعی هستند که با داده های عظیمی آموزش دیده اند تا زبان انسانی را دریابند و مانند انسان به سوالات پاسخ دهند.

هوش مصنوعی مولد به ابزارهایی اشاره دارد که به کاربران اجازه می دهد محتوای جدیدی براساس درخواست کاربران انسان بسازند.

این فناوری ها پتانسیل زیادی برای افزایش بهره وری انسان دارند و مدت زمان لازم برای ارائه یک کپی ساده جهت اهداف بازاریابی یا کد نویسی را کاهش می‌دهند.

با این وجود آنها سروصدای زیادی به پا کردند زیرا رگولاتورها از سرعت توسعه سیستم های هوش مصنوعی و استفاده از آن در بازار کار بیمناک هستند.

سازمان رقابت و بازارهای انگلیس در بیانیه ای اعلام کرد چگونگی چشم‌انداز رقابتی برای مدل‌های پایه و استفاده از آنها می‌تواند تکامل یابد، فرصت‌ها و خطراتی را که چنین سناریوهایی به همراه دارند، بررسی خواهد کرد و اصول راهنما را برای حمایت از رقابت و حمایت از مصرف‌کنندگان با توسعه مدل‌های پایه منتشر خواهد کرد.

سارا کاردل، مدیر ارشد اجرایی سازمان رقابت و بازارهای انگلیس در بیانیه‌ای اعلام کرد: هوش مصنوعی در چند ماه اخیر به آگاهی عمومی نفوذ کرده است اما ما از مدتی آن را تحت نظر داشتیم. این فناوری با سرعت در حال توسعه است و پتانسیل آن را دارد که شیوه رقابت کسب و کارها را تغییر دهد و همچنین رشد اقتصادی قابل توجهی را ایجاد کند.

اودر ادامه افزود: بسیار مهم است که مزایای بالقوه این فناوری به آسانی برای کسب‌وکارها و مصرف‌کنندگان بریتانیا قابل دسترسی باشد، و از سوی دیگر از مردم در مقابل مواردی مانند اطلاعات نادرست یا گمراه‌کننده محافظت شود.

این سازمان دیدگاه ها و شواهد را تا مهلت ۲ ژوئن بررسی خواهد کرد. پس از آن، رگولاتورها گزارشی درباره یافته های آن در سپتامبر منتشر می کنند.

قوانین جدید چین برای محدودسازی هوش مصنوعی

چهارشنبه, ۱۳ ارديبهشت ۱۴۰۲، ۱۰:۳۲ ب.ظ | ۰ نظر

به دنبال اعمال محدودیت به منظور مهار توسعه سریع ابزارهای هوش مصنوعی مولد در سراسر جهان، سازمان ناظر بر اینترنت چین نیز مجموعه قوانین جدیدی برای شرکت‌هایی که خدماتی مشابه ChatGPT ارائه می‌دهند را معرفی کرده است.

به گزارش خبرگزاری صدا و سیما؛  طبق مقررات پیشنهادی که توسط اداره فضای سایبری چین (CAC) منتشر شده است، شرکت‌هایی که خدمات مولد هوش مصنوعی در این کشور ارائه می‌کنند باید اقداماتی را به منظور جلوگیری از نشر محتوای تبعیض‌آمیز، اطلاعات نادرست و محتوایی که به حریم خصوصی شخصی یا مالکیت معنوی آسیب می‌زند، انجام دهند.

CAC در بیانیه‌ای اعلام کرد که کسب و کارها باید مطمئن شوند که خدماتشان به ارزش‌های سوسیالیستی چین احترام گذاشته و محتوایی تولید نکنند که حاکی از براندازی رژیم، ترویج خشونت و غیراخلاقی بوده یا نظم اقتصادی و اجتماعی را مختل کند. سازمان ناظر بر اینترنت چین معتقد است که طبق مقررات سال ۲۰۱۸ این کشور،‌ تمام محصولات مولد هوش مصنوعی باید قبل از ارائه به عموم، توسط CAC مورد ارزیابی امنیتی قرار بگیرد.

هوش مصنوعی مولد که محتوایی بر اساس پیام‌های متنی، تصویری یا صوتی ایجاد می‌کند، پس از راه‌اندازی ربات مکالمه ChatGPT توسط شرکت آمریکایی OpenAI، در چین توجهات را خود جلب کرده است، اما از آنجایی که در این کشور ChatGPT در دسترس قرار ندارد، شرکت‌های داخلی برای راه‌اندازی فناوری‌هایی مشابه آن به رقابت پرداخته‌اند. بیدو ماه گذشته از هوش مصنوعی Ernie Bot رونمایی کرد و علی‌بابا هم Tongyi Qianwen را به عنوان هوش مصنوعی مولد خود معرفی کرد. با این حال، افزایش علاقه به هوش مصنوعی مولد مقامات چینی را بر آن داشته که خطرات این حوزه را زیر نظر داشته باشند.

سایر کشورها نیز در حال بررسی مقررات مربوط به هوش مصنوعی مولد هستند. وزارت بازرگانی آمریکا و اتحادیه در حال ارزیابی چگونگی سیاست گذاری در این زمینه هستند و ایتالیا هم اولین کشور غربی بود کهChatGPT را به دلیل نگرانی‌هایی در خصوص حفظ حریم خصوصی ممنوع اعلام کرد. CAC در حال ارزیابی بازخوردها درمورد قوانین پیشنهادی خود در زمینه هوش مصنوعی مولد تا ۱۰ می (۲۰ اردیبهشت) است.

هوش مصنوعی نسل بشر را نابود می‌کند

چهارشنبه, ۱۳ ارديبهشت ۱۴۰۲، ۱۰:۱۰ ب.ظ | ۰ نظر

یک فیزیک دان در سال‌های پایانی زندگی خود هشدار داد که هوش مصنوعی می‌تواند به معنای پایان نسل بشر باشد.
به گزارش باشگاه خبرنگاران مدت‌ها قبل از اینکه ایلان ماسک و استیو وازنیک بنیانگذار اپل نامه‌ای در مورد خطرات عمیق هوش مصنوعی برای بشریت را امضا کنند، استیون هاوکینگ فیزیکدان، زنگ خطر را در مورد این فناوری به سرعت در حال تکامل به صدا درآورده بود.

هاوکینگ در مصاحبه‌ای در سال ۲۰۱۴ گفت: توسعه هوش مصنوعی کامل می‌تواند پایان نسل بشر باشد.

هاوکینگ که بیش از ۵۵ سال از بیماری اسکلروز جانبی آمیوتروفیک (ALS) رنج می‌برد، سال ۲۰۱۸ در سن ۷۶ سالگی درگذشت. اگرچه او اظهارات انتقادی در مورد هوش مصنوعی داشت، اما از شکل بسیار ابتدایی این فناوری برای برقراری ارتباط استفاده کرد. بیماری او، عضلات را ضعیف می‌کرد و هاوکینگ را مجبور به استفاده از ویلچر کرد. او در سال ۱۹۸۵ دیگر قادر به صحبت کردن نبود و به روش‌های مختلفی برای برقراری ارتباط متکی بود، از جمله دستگاه تولید کننده گفتار که توسط اینتل اداره می‌شد و به او اجازه می‌داد از حرکات صورت برای انتخاب کلمات یا حروفی که با گفتار ترکیب می‌شوند استفاده کند.

هاوکینگ گفت که اشکال بسیار ابتدایی هوش مصنوعی قبلاً قدرتمند بوده‌اند، اما ایجاد سیستم‌هایی که با هوش انسانی رقابت می‌کنند یا از آن پیشی می‌گیرند می‌تواند برای نسل بشر فاجعه‌بار باشد.

او در کتاب خود ذکر کرده که رایانه‌ها احتمالاً در عرض ۱۰۰ سال از انسان‌ها در هوش پیشی خواهند گرفت. او نوشت: ما ممکن است با یک انفجار اطلاعاتی مواجه شویم که در نهایت منجر به ماشین‌هایی می‌شود که هوش آن‌ها بیش از هوش ما است.

او استدلال کرد که کامپیوتر‌ها باید برای هماهنگی با اهداف انسانی آموزش ببینند و افزود که جدی نگرفتن خطرات مرتبط با هوش مصنوعی می‌تواند بدترین اشتباه ما باشد.

اظهارات هاوکینگ بازتاب نگرانی‌های امسال غول فناوری، ایلان ماسک و استیو وزنیاک، بنیانگذار اپل است. این دو رهبر فناوری، همراه با هزاران متخصص دیگر، نامه‌ای را امضا کردند و در آن خواستار توقف حداقل شش ماهه ساخت سیستم‌های هوش مصنوعی قدرتمندتر از ربات گفت و گوی چت‌جی‌پی‌تی شدند.

علی‌رغم درخواست‌ها برای توقف تحقیقات در آزمایشگاه‌های هوش مصنوعی که بر روی فناوری‌هایی که از GPT-۴ پیشی می‌گیرند، انتشار این سیستم نقطه عطفی بود و شرکت‌های مختلف را وادار کرد تا در ساخت سیستم‌های هوش مصنوعی با هم رقابت کنند.

به گفته مدیر آژانس سیستم‌های اطلاعات دفاعی، هوش مصنوعی مولد، می تواند هکرها را پیچیده‌تر کرده و در نهایت سطح پادمان‌های ایالات متحده را بالا ببرد.
به گزارش سایبربان، ژنرال رابرت اسکینر، مدیر آژانس سیستم های اطلاعات دفاعی (DISA)، می گوید که این فناوری یکی از مخرب ترین پیشرفت هایی است که او در مدت طولانی دیده است و پیامدهای امنیتی جدی دارد. هشدار مشابهی توسط راب جویس، رئیس امنیت سایبری آژانس امنیت ملی، در اوایل سال جاری صادر شده بود.
اسکینر در 2 می در کنفرانس سایبری ای اف سی ای ای تک نت (AFCEA TechNet) در بالتیمور گفته بود: کسانی که از هوش مصنوعی استفاده می‌کنند، و می‌توانند بفهمند که چگونه می‌توانند به بهترین شکل از آن استفاده کنند، اما همچنین چگونه می‌توانند به بهترین شکل در برابر آن محافظت شوند، همانهایی هستند که از موقعیت بالایی برخوردار هستند. ما در این اتاق به این فکر می‌کنیم که چگونه این امر در امنیت سایبری اعمال می‌شود. چگونه در مورد هوش کاربرد دارد؟ چگونه آن را در مورد توانایی های جنگی خود اعمال می کنیم؟

هوش مصنوعی مولد در ماه‌های اخیر توسط چت جی پی تی اوپن ای آی (ChatGPT OpenAI) که بیش از 1 میلیون کاربر را در عرض یک هفته پس از راه‌اندازی خود جذب کرد، محبوب شد. سام آلتمن، مدیر عامل اوپن ای آی، در ماه مارس به خبرگزاری ای بی سی نیوز (ABC News) گفته بود که نگران این است که چگونه این مدل‌ها می‌توانند برای اطلاعات نادرست گسترده استفاده شوند و برای حملات سایبری متجاوزانه، مورد استفاده قرار گیرند.
اسکینر در روز سه‌شنبه پیش‌بینی کرد که هوش مصنوعی مولد ابزار مهمی برای "دشمنان رده بالا" نخواهد بود. در عوض، این فناوری به یک دسته کامل از افراد دیگر کمک می کند تا با روشی بسیار سریع تر به آن سطح برسند.
او می گوید: پس چگونه سیستم های حفاظتی، امنیتی و قابلیت های شبکه برای حمایت از حفاظت از آن داده ها و حمایت از مردم خود را داریم؟

ایالات متحده، چین و روسیه را تهدیدهای درجه یک در دنیای مجازی می داند. بر اساس استراتژی امنیت سایبری دولت بایدن که وعده استفاده از تمام ابزارهای قدرت ملی برای دفع رفتارهای نادرست سایبری را داده بود، دیگر دشمنان ایران و کره شمالی هستند.
تسلط بر هوش مصنوعی کلیدی برای پایداری رقابت بین‌المللی در بخش‌های دفاعی، مالی و سایر بخش‌ها است. حداقل 685 پروژه هوش مصنوعی، از جمله چندین پروژه مرتبط با سیستم‌های تسلیحاتی بزرگ، تا اوایل سال 2021 در پنتاگون در حال اجرا بودند که البته این بر اساس آخرین آمار عمومی است.
آژانس سیستم‌های اطلاعات دفاعی در سال مالی جاری، هوش مصنوعی مولد را به فهرست نظارت بر فناوری خود اضافه کرد. موجودی موضوعات و تجهیزات پیشرفته که هر شش ماه یا بیشتر به روز می شد، در گذشته دارای 5G، محاسبات لبه و دسترسی و حضور از راه دور بود.

قوانین کشور با هوش مصنوعی تنقیح شد

سه شنبه, ۱۲ ارديبهشت ۱۴۰۲، ۰۵:۲۹ ب.ظ | ۰ نظر

رییس مرکز پژوهش های مجلس از راه اندازی فاز نخست سامانه هوشمند تنقیح قوانین در این مرکز خبر داد و گفت: این اقدام برای نخستین بار پس از ۶ دهه با راستی آزمایی ۹۹ درصدی صورت گرفته است.
به گزارش روابط عمومی مرکز پژوهش‌های مجلس شورای اسلامی، بابک نگاهداری در خصوص اهمیت تنقیح قوانین در کشور، گفت: برمبنای تاکیدات مقام معظم رهبری در خصوص امنیت قضایی و سیاست‌های کلی ابلاغی در خصوص نظام قانونگذاری در سال ۱۳۹۸ و تاکید قانون تدوین و تنقیح قوانین و مقررات مصوب ۱۳۸۹، مرکز پژوهش‌های مجلس با آسیب‌شناسی و بررسی خبرگانی در خصوص نظام قانونگذاری کشور، از سال ۱۴۰۰ به دستور ریاست محترم مجلس یازدهم، پروژه هوشمندسازی تنقیح قوانین و مقررات را به صورت دانش‌بنیان و با رویکرد امکان‌سنجی و بایسته‌سنجی این مهم در دستور کار خود قرار داد.

وی در خصوص روند تاریخی تنقیح قوانین و اهمیت این موضوع در کشور، توضیح داد: موضوع تنقیح قوانین از دهه ۴۰ شمسی به صورت رسمی توسط اداره حقوقی قوه قضاییه و سپس در دهه ۵۰ در سازمان تنقیح قوانین و مقررات کشور و پس از انقلاب نیز در معاونت حقوقی ریاست جمهوری و معاونت قوانین مجلس از سال ۱۳۸۹ در نظام حقوقی کشور مطرح و مورد توجه قرار گرفت که در مسیر کار چالش‌هایی اساسی در این زمینه به وجود آمد که مرکز پژوهش‌های مجلس را نسبت به تعریف پروژه‌ای در این زمینه مصمم‌تر کرد.

رییس مرکز پژوهش‌های مجلس درخصوص آغاز روند کار تنقیح قوانین در مرکز پژوهش‌های مجلس، یادآور شد: مرکز پژوهش‌های مجلس در گام نخست ضمن بررسی و تحلیل تمامی مطالعات داخلی صورت گرفته و مطالعات خبرگانی در این خصوص که به صورت مجزا در قالب ۴ جلد کتاب در حال انتشار است، هدف‌گذاری خود را بر ارائه الگوی نوینی در مسیر تنقیح قوانین و مقررات قرار داد.

نگاهداری در خصوص الگوی مرکز پژوهش‌های مجلس در امر تنقیح قوانین، خاطرنشان کرد: با توجه به تعداد زیاد و تراکم قوانین و مقررات در کشور، فصل نوین این مرکز در تنقیح قوانین، استفاده از هوش مصنوعی به عنوان دستیار یا جایگزین هوش انسانی  بوده است که این امر صرفه‌جویی قابل توجهی در نیروی انسانی و کارشناسی به همراه داشته است.

وی در تشریح مشکلات سامانه‌های مختلف قوانین کشور، گفت: در حال حاضر سامانه‌های مختلف کشور به صورت کاملا دستی فرایند ورود اطلاعات و در نهایت تنقیح را طی می‌نمایند که در نتیجه باعث اتلاف بسیار زیاد نیروی انسانی و بروز نقص اطلاعاتی به علت حجم زیاد قوانین و مقررات شده است، همچنین مشکلات متعددی چون عدم بهره‌گیری از تکنیک‌های هوشمند در کلیه مراحل ورود اطلاعات و افزایش قابلیت‌ها، نبود رویه واحد در کدگذاری، عدم جامعیت موضوعات حقوقی، غیرتعاملی بودن با کاربران و مخاطبین، عدم شمول فرآیند تصویب طرح‌ها و لوایح، عدم شمول نسخ ضمنی و عدم شمول قوانین جامع، وجود دارد.

نگاهداری در خصوص روند انجام تنقیح قوانین با استفاده از هوش مصنوعی، عنوان کرد: این موضوع در طول سال ۱۴۰۱ توسط یک تیم پژوهشی متشکل از متخصصین حقوقی سامانه‌های قوانین و مقررات و هوش مصنوعی به نحوی برنامه‌ریزی شد که ضمن تدوین نظری و بومی الگوی هوش مصنوعی در نظام تنقیح و قوانین بتواند در قالب محصول آموزشی و پژوهشی به عنوان کتاب بایسته‌ها و لوازم استفاده از هوش مصنوعی در نظام تنقیح قوانین و مقررات را طراحی کند که این کتاب به زودی چاپ و در اختیار جامعه علمی کشور قرار خواهد گرفت.

وی ادامه داد: مرکز پژوهش‌های مجلس از سال ۱۴۰۱ افق اجرای الگوهای استخراج شده را در قالب سامانه هوشمند مدنظر قرار داده است و با ایجاد سامانه‌ای، تنقیح قوانین و مقررات را به صورت هوشمند طراحی کرده است.

رییس مرکز پژوهش‌های مجلس یکی از شاخصه‌های این سامانه را استفاده از نظرات خبرگان و مردم در خصوص طرح‌ها و لوایح برشمرد و تصریح کرد: در فاز نخست این پروژه مبتنی‌بر بانک داده‌ قوانین و مقررات مرکز پژوهش‌های مجلس با وجود چالش‌ها، نواقص و مشکلات متعدد، الگوی استخراج شده در امر تنقیح قوانین و مقررات به صورت آزمایشی اجرا و خروجی‌های آن مورد ارزیابی قرار گرفته است.

نگاهداری خاطرنشان کرد: از جمله خروجی‌های مهم فاز نخست می‌توان به استخراج تمامی نسخ‌های صریح در قوانین، استخراج تمامی موارد با انقضای زمان، استخراج موارد نسخ ضمنی، ۳ کد از عناوین قوانین جامع شامل کدهای ثبت، ‌تجارت و مبارزه با مفاسد با ضریب تطبیق استخراج شده با موارد دستی به صورت مناسب اشاره کرد.

وی نخستین گام در تنقیح قوانین و مقررات را تدوین و جمع آوری آنها برشمرد و گفت: در فاز نخست این پروژه مبتنی بر بانک داده قوانین و مقررات مرکز پژوهش های مجلس شورای اسلامی،  به صورت فایل متنی در پایگاه آزمایشی داده، ذخیره و جمع‌آوری شده است. این سیستم بر اساس پردازش متن و جستجوی متون برنامه‌ریزی و طراحی شده است تا بتواند با بازیابی واژگان و تحلیل و ارتباط‌دهی آنها در ایجاد نمودار درختی آنها را انجام دهد.

وی ادامه داد: گام‌های بعدی هوشمندسازی سامانه تنقیح قوانین بخش‌هایی چون طراحی مدل کدگذاری هوشمند کلیه قوانین، ارائه مدل نسخ ضمنی برای همه کدها، طراحی سامانه جامع هوشمند و تعاملی قوانین، تطبیق هوشمند طرحها و لوایح با قوانین و طراحی مدل تنظیم هوشمند قوانین جامع، شامل می‌شود.

نگاهداری تاکید کرد: پس از حدود دو سال کار پژوهشی در زمینه تنقیح قوانین با هوش مصنوعی، خروجی کار بیانگر آن است که این مهم به صورت کارا و عملیاتی صورت پذیرفته است.

رییس مرکز پژوهش‌های مجلس با بیان اینکه فاز نخست تنقیح قوانین با ۹۹ درصد نتیجه درست همراه بوده است، گفت: خروجی های فاز نخست پروژه هوشمندسازی تنقیح قوانین که در آن ۱۷۰۴ قانون بر اساس بانک قوانین مرکز پژوهش‌های مجلس شورای اسلامی، ساختار بندی و کدگذاری شده است، نشان می‌دهد که ۲۸۰۱ مورد نسخ صریح کلی قوانین، ۱۶۲۵ مورد نسخ صریح جزیی قوانین، ۷۶ مورد قوانین آزمایشی، ۴۴۷ مورد قوانین موقت، ۱۹۱ مورد قوانین مدت منقضی اعلامی در قوانین تنقیحی و ۳۳ مورد قوانین تمدید شده هستند. همچنین آمار تنقیح ضمنی هوشمند نشان می‌دهد ۹۰ مورد با اجرا منتفی، ۳ مورد موضوع منتفی، ۱۳ مورد نسخ ضمنی تفاسیر، ۶۸ مورد نسخ ضمنی آیین‌نامه اجرایی، ۷۰ مورد نسخ ضمنی قوانین فرعی با قاعده نسخ صریح قانون اصلی و ۱۸ مورد نسخ ضمنی تایید شده سه کد آزمایشی، را نشان می‌دهد.

وی ادامه داد: نکته مهم دیگر این است که رسیدن به مدل بومی و مناسب در نظام حقوقی ایران در این زمینه تا پیش از این در مجامع علمی، مورد توجه نبوده است و اکنون می‌توان گفت خروجی‌های چندگانه این پروژه در قالب‌ کتاب‌هایی به زودی منتشر خواهد شد و این مهم می‌تواند نخستین گام‌ها در مسیر پیش روی نظام حقوقی ایران باشد.

رییس مرکز پژوهش‌های مجلس در پایان، خاطرنشان کرد: سامانه طراحی شده تنقیح قوانین و مقررات کشور با استفاده از هوش مصنوعی در سال ۱۴۰۲ تکمیل خواهد شد و امیدواریم تا این دستاورد بتواند در زمینه حکمرانی مشارکتی در قانونگذاری و افزایش سرعت و دقت در امر قوانین و مقررات و کدگذاری هوشمند در این زمینه موثر باشد.

پشیمانی پدرخوانده هوش مصنوعی از کرده‌اش

دوشنبه, ۱۱ ارديبهشت ۱۴۰۲، ۰۴:۳۷ ب.ظ | ۰ نظر

جفری هینتون از تلاش‌هایی که در زمینه توسعه هوش مصنوعی انجام داده است، اظهار پشیمانی کرد.
به گزارش آنا، «جفری هینتون» که به پدرخوانده هوش مصنوعی معروف است، در مصاحبه جدیدی می‌گوید در بخشی از وجود خود به خاطر کار‌هایی که انجام داده است، احساس پشیمانی می‌کند. او به‌تازگی از گوگل خارج شده است تا بتواند بی‌واهمه درباره ریسک‌های هوش مصنوعی صحبت کند.

هینتون که بیش از یک دهه در گوگل کار می‌کرد، درباره تلاش‌های گذشته خود می‌گوید: «به خودم با این بهانه رایج دلداری می‌دهم که اگر من این کار را نمی‌کردم، شخص دیگری آن را انجام می‌داد. به‌سختی می‌توان فهمید که چگونه می‌شود جلوی افراد خرابکار را گرفت تا از این فناوری برای کار‌های مخرب استفاده نکنند.»

هینتون در ماه گذشته میلادی از گوگل استعفا داد و پنج‌شنبه هفته پیش گفت‌وگوی مستقیمی با «ساندار پیچای» مدیرعامل این شرکت داشت. جزئیات این گفتگو محرمانه باقی مانده است. هینتون زمانی به گوگل پیوست که این غول دنیای فناوری شرکت او و دو دانشجویش را خرید. یکی از این دانشجویان حالا به دانشمندان ارشد OpenAI تبدیل شده است.

هینتون و دانشجویانش یک شبکه عصبی ساختند که به خودش یاد می‌داد چگونه پس از تحلیل هزاران تصویر باید اشیایی مثل سگ‌ها، گربه‌ها و گل‌ها را شناسایی کند. همین شبکه درنهایت منجر به ساخت ابزار‌هایی مثل ChatGPT و بارد گوگل شد.

پدرخوانده هوش مصنوعی می‌گوید تا زمانی که مایکروسافت بینگ جدید را با هوش مصنوعی معرفی کرد، از شیوه برخورد گوگل با این فناوری راضی بود. اما با این اقدام، گوگل هم وارد وضعیت قرمز شد تا پاسخی به رقیب خود بدهد. هینتون می‌گوید چنین رقابت شدیدی بین غول‌های فناوری می‌تواند توقف‌ناپذیر باشد و جهانی را به‌وجود بیاورد که پر از تصاویر و نوشته‌های جعلی خواهد بود و هیچ‌کس دیگر نمی‌تواند واقعیت را تشخیص دهد.

بزرگ‌ترین نگرانی حال حاضر برای هینتون مسئله اطلاعات گمراه‌کننده است. اما در بلندمدت او از بابت حذف شغل‌های تکراری و احتمالاً نابودی بشریت هم نگران است. انقراض بشریت که او قبلاً هم احتمال آن را مطرح کرده بود، زمانی اتفاق خواهد افتاد که هوش مصنوعی بتواند خودش کد برنامه‌هایش را بنویسد و اجرا کند.

هینتون می‌گوید خیلی‌ها ازجمله خود او تصور می‌کردند که هوش مصنوعی تا حدود ۳۰ تا ۵۰ سال دیگر از انسان‌ها باهوش‌تر نخواهد شد، اما او حالا دیگر چنین اعتقادی ندارد.

«ChatGPT» از پزشکان بهتر است

يكشنبه, ۱۰ ارديبهشت ۱۴۰۲، ۰۳:۳۲ ب.ظ | ۰ نظر

بررسی جدید پژوهشگران آمریکایی نشان داد که متخصصان مراقبت‌های بهداشتی در ۷۹ درصد مواقع، پاسخ‌های «ChatGPT» به پرسش‌های بیماران را به پاسخ‌های پزشکان ترجیح می‌دهند.
به گزارش ایسنا و به نقل از نوروساینس نیوز، پژوهشگران «دانشگاه کالیفرنیا سن‌دیگو»(UCSD)، پاسخ‌های کتبی پزشکان و چت‌بات «ChatGPT» را با پرسش‌های واقعی مقایسه کردند و دریافتند که گروهی از متخصصان مراقبت‌های بهداشتی دارای مجوز، پاسخ‌های ChatGPT را در ۷۹ درصد مواقع ترجیح می‌دهند و آنها را با کیفیت‌تر و همدلانه‌تر می‌دانند.

اگرچه دستیارهای هوش مصنوعی مانند ChatGPT جایگزین پزشکان نمی‌شوند اما این پژوهش نشان می‌دهد پزشکانی که با چنین فناوری‌هایی کار می‌کنند، ممکن است پزشکی را متحول سازند.

این پژوهش که به سرپرستی دکتر «جان آیرز»(John Ayers)، پژوهشگر «موسسه کوالکام»(Qualcomm Institute) در دانشگاه کالیفرنیا سن‌دیگو انجام شده است، نگاهی اجمالی را به نقش دستیاران هوش مصنوعی در پزشکی ارائه می‌دهد.

آیرز که معاون نوآوری در بخش بیماری‌های عفونی و بهداشت عمومی جهانی دانشکده پزشکی دانشگاه کالیفرنیا سن‌دیگو است، گفت: فرصت‌ برای بهبود مراقبت‌های بهداشتی با هوش مصنوعی، بسیار زیاد است. مراقبت تقویت‌شده با هوش مصنوعی، آینده پزشکی است.

آیا ChatGPT برای مراقبت بهداشتی آماده است؟

پژوهشگران تصمیم گرفتند در پژوهش جدید خود، به این پرسش پاسخ دهند که آیا ChatGPT می‌تواند به سوالاتی که بیماران برای پزشکان خود می‌فرستند، به دقت پاسخ دهد یا خیر. اگر پاسخ مثبت باشد، پس مدل‌های هوش مصنوعی را می‌توان در سیستم‌های سلامت ادغام کرد تا پاسخ‌های پزشک به پرسش‌های ارسالی بیماران را بهبود ببخشند و بار روزافزون پزشکان را کاهش دهند.

دکتر «دیوی اسمیت»(Davey Smith)، یکی از مدیران «موسسه پژوهش‌های بالینی آلتمن»(ACTRI) و استاد دانشکده پزشکی دانشگاه کالیفرنیا سن‌دیگو گفت: ChatGPT ممکن است بتواند در امتحان مجوز پزشکی موفق شود اما پاسخ‌گویی مستقیم به پرسش‌های بیمار همراه با دقت و همدلی، یک وضعیت متفاوت است.

دکتر «اریک لیز»(Eric Leas)، دانشیار مؤسسه کوالکام گفت: همه‌گیری کووید-۱۹، پذیرش مراقبت‌های بهداشتی مجازی را سرعت داد. اگرچه این امر، دسترسی به مراقبت را برای بیماران آسان‌تر می‌کند اما پزشکان زیر بار رگبار پیام‌های الکترونیکی بیماران قرار می‌گیرند که به دنبال مشاوره پزشکی هستند. این فشار کاری، رکورد سطح فرسودگی شغلی پزشکان را شکسته است.

برای به دست آوردن نمونه بزرگ و متنوعی از پرسش‌های مربوط به مراقبت‌های بهداشتی و پاسخ‌های پزشک که حاوی اطلاعات شخصی قابل شناسایی نبود، پژوهشگران به رسانه‌های اجتماعی روی آوردند که در آنها میلیون‌ها بیمار به طور عمومی پرسش‌های پزشکی را ارسال می‌کنند تا پزشکان به آنها پاسخ دهند. یکی از این رسانه‌ها، «اسک‌داکس»(AskDocs) شرکت «ردیت»(Reddit) است.

اسک‌داکس تقریبا ۴۵۲ هزار عضو دارد که پرسش‌های پزشکی خود را می‌فرستند و متخصصان تأییدشده مراقبت بهداشتی به آنها پاسخ‌ می‌دهند. اگرچه هر کسی می‌تواند به پرسش‌ها پاسخ دهد اما ناظران، اعتبار متخصصان مراقبت‌های بهداشتی را تأیید می‌کنند و پاسخ‌ها، سطح اعتبار پاسخ‌دهنده را نشان می‌دهند. نتیجه این روند، مجموعه گسترده و متنوعی از پرسش‌های پزشکی بیمار و پاسخ‌های ارائه‌ شده توسط متخصصان پزشکی مجاز است.

از آنجا که برخی از افراد ممکن است بپرسند آیا تبادل پرسش و پاسخ در رسانه‌های اجتماعی یک آزمون منصفانه است، اعضای گروه پژوهشی خاطرنشان کردند که این تبادلات، بازتابی از تجربه بالینی آنها به شمار می‌رود.

آنها به طور تصادفی، ۱۹۵ نمونه از گفت‌وگوهای اسک‌داکس را مورد بررسی قرار دادند که در آنها یک پزشک تاییدشده، به یک پرسش عمومی پاسخ داده بود. پژوهشگران، پرسش اصلی را در اختیار ChatGPT قرار دادند و از آن خواستند تا پاسخی را بنویسد.

گروهی متشکل از سه متخصص دارای مجوز مراقبت‌های بهداشتی، پرسش‌ها و پاسخ‌های مربوطه را ارزیابی کردند و متوجه نشدند که پاسخ از سوی یک پزشک ارائه شده یا ChatGPT پاسخ داده است. آنها پاسخ‌ها را براساس کیفیت اطلاعات و میزان همدلی مقایسه کردند و گفتند که کدام را ترجیح می‌دهند.

مشخص شد که گروه حرفه‌ای ارزیابی در ۷۹ درصد مواقع، پاسخ‌های ChatGPT را به پاسخ‌های پزشک ترجیح داده‌اند.

«جسیکا کلی»(Jessica Kelley)، پرستار شاغل در شرکت «Human Longevity» و از پژوهشگران این پروژه گفت: پیام‌های ChatGPT با اطلاعات دقیقی همراه بودند که نسبت به پاسخ‌های پزشک، جنبه‌های بیشتری از پرسش‌های بیمار را در بر داشت.

دکتر «آرون گودمن»(Aaron Goodman)، دانشیار بالینی دانشکده پزشکی دانشگاه کالیفرنیا سن‌دیگو و از پژوهشگران این پروژه گفت: هرگز تصور نمی‌کردم این را بگویم اما ChatGPT نسخه‌ای است که می‌خواهم به صندوق ورودی خود بدهم. این فناوری، نحوه حمایت از بیماران را تغییر خواهد داد.

این پژوهش، در مجله «JAMA Internal Medicine» به چاپ رسید.

با هوش مصنوعی می‌توانیم اجتهاد کنیم

جمعه, ۸ ارديبهشت ۱۴۰۲، ۰۴:۳۸ ب.ظ | ۰ نظر

رجبی عضو جامعه مدرسین حوزه علمیه قم گفت: زمینه‌های به وجود آمده پس از انقلاب اسلامی برای آشنایی طلاب با فناوری آی تی، افق کاربست هوش مصنوعی را امیدوار کننده و چشم انداز آن را نوید بخش کرده است؛ در گذشته این مسئله در حوزه علمیه کاملا مغفول بود، اما اکنون برخی از طلاب با هوش مصنوعی آشنایی مقدماتی پیدا کرده و مؤسسات مختلفی نیز در این زمینه فعالیت دارند.
عضو شورای عالی حوزه‌های علمیه گفت: اگر نسبت به دین و دفاع از ارزش‌های دینی، اسلامی و انسانی دغدغه داریم باید نسبت به علوم روز بویژه هوش مصنوعی مجهز و پیشران باشیم.

به گزارش خبرگزاری حوزه؛ آیت الله محمود رجبی رئیس مؤسسه آموزشی و پژوهشی امام خمینی (ره) شامگاه چهارشنبه در نشست هم‌اندیشی گفتمان علمی مطالعات بنیادین حوزه هوش مصنوعی که در سالن اندیشه این مؤسسه برگزار شد در سخنانی اظهار کرد: امروز فناوری‌های نوین به ویژه هوش مصنوعی به پیشرفت علوم شتاب داده و در کشور ما نیز به برکت انقلاب اسلامی این امر تحقق یافته است.

عضو جامعه مدرسین حوزه علمیه قم ادامه داد: زمینه‌های به وجود آمده پس از انقلاب اسلامی برای آشنایی طلاب با فناوری آی تی، افق کاربست هوش مصنوعی را امیدوار کننده و چشم انداز آن را نوید بخش کرده است؛ در گذشته این مسئله در حوزه علمیه کاملا مغفول بود، اما اکنون برخی از طلاب با هوش مصنوعی آشنایی مقدماتی پیدا کرده و مؤسسات مختلفی نیز در این زمینه فعالیت دارند.

وی افزود: در مراکز آموزشی واحد‌هایی برای آشنایی با این فناوری در نظر گرفته شده است و درک ثمرات آن برای بسیاری از حوزویان ملموس شده؛ با این حال هنوز با فضای عظیم این عرصه آشنایی کامل صورت نگرفته است. دغدغه بهره گیری از آی تی به عنوان یک نیاز و ضرورت در بخشی از بدنه حوزه نشان می‌دهد که زمینه برای وقوع جهش در این عرصه وجود دارد؛ البته از نظر سرمایه گذاری، مدیریت و برنامه ریزی نیاز به تلاش بیشتری وجود دارد.

استاد حوزه علمیه خاطرنشان کرد: بیست سال پیش، مؤسسه امام خمینی (ره) نشریه‌ای را در این باره منتشر کرد؛ البته هنوز فعالیت برنامه ریزی شده خاص در گروه‌های علمی مؤسسه در خصوص هوش مصنوعی با ظرفیت‌های امروزین آن صورت نگرفته، اما جسته و گریخته تحقیقاتی انجام شده که از جمله آن‌ها مقالاتی با عناوین؛ «ادراک بصری در هوش مصنوعی و فلسفه ذهن»، «مبانی معرفت شناختی و ذهن و هوش مصنوعی»، «متن کاوی موضوعی رایانه‌ای قرآن کریم برای کشف ارتباطات معنایی میان آیات بر مبنای تفسیر موضوعی» و «بررسی توان رقابت هوش مصنوعی با ذهن انسان از منظر قرآن کریم» است.

عضو شورای عالی حوزه‌های علمیه بیان کرد: البته در مؤسسه امام خمینی (ره) معاونت فناوری اطلاعات فعال است و پروژه‌های مختلفی را اجرا کرده و در دست اجرا دارد که مورد بهره‌برداری اساتید، محققان و دانش‌پژوهان و نیز بخش‌های مختلف اداری مؤسسه است؛ در مرکز دایرة‌المعارف نیز پروژه‌های ارزشمندی اجرا شده است که در انجام سرعت و دقت تحقیقات محققان آن مرکز تأثیر قابل توجه دارد.

وی با تقدیر از تلاش‌های آیت الله اعرافی مدیرحوزه‌های علمیه اظهارکرد: سال‌های متمادی است که با آیت‌الله اعرافی همکاری داشته‌ام؛ وی شخصی خوش‌فکر، خلاق، آینده‌نگر و مدیری توانمند است که اقدامات بزرگی را در کارنامه دارد؛ با توانمند‌هایی که در مدیریت حوزه دیده می‌شود، انتظار می‌رود کار‌های شایسته‌ای صورت بگیرد و حوزه در طول زمان، نه تنها سطح ضروری این فناوری را طی کند بلکه به سوی سطح مطلوب گام‌های ارزشمندی بردارد و در کاربست هوش مصنوعی و فناوری آی تی افق چشم‌انداز مطلوب و امیدوار کننده خواهد داشت البته اگر امکانات بیشتری فراهم شود، حرکت بهتری انجام خواهد شد؛ شورای عالی هم که نهاد بالادستی مدیریت حوزه است حتما به آیت‌الله اعرافی در این زمینه کمک و بستر‌های لازم را فراهم خواهد کرد.

آیت الله رجبی تصریح کرد:استفاده از هوش مصنوعی به عنوان یک ابزار نوین برای فرآیند اجتهاد، تولید علوم اسلامی و نظریه‌پردازی مفید می‌دانم؛ در نظریه‌پردازی هوش مصنوعی می‌تواند خدمات بسیار خوبی داشته باشد. اگر فناوری آی تی در اختیار محققان قرار بگیرد از لحاظ جامعیت، سرعت و دقت بسیار می‌تواند کمک کند؛ و علاوه بر امکان پیشگیری از بسیاری از خطا‌ها و دستیابی آسان، سریع و دقیق به داده‌های فراوان علمی، محققان این صرفه‌جویی زمانی را می‌توانند به تأملات علمی اختصاص دهند.

وی تأکید کرد: هوش مصنوعی کمک عظیمی به سایر کار ویژه‌های روحانیت می‌کند؛ از جمله در تبلیغ و برای فعالیت‌های فرهنگی بسیار پیش برنده، سرعت بخش و سامان دهنده است. جهان دائما در حال تحول است و این تحولات در جامعه ما و جهان اسلام اثر خودش را دارد؛ اگر حوزه علمیه نتواند پاسخگوی نیاز‌های نوظهور نظام و جوامع اسلامی باشد، از قافله تحولات عقب می‌ماند و به حاشیه رانده می‌شود.

عضوشورای عالی حوزه‌های علمیه افزود: جهت گیری نظام اسلامی به سمت تمدن نوین اسلامی و اداره جهان است؛ این کار بدون استفاده ابراز‌های نوین ممکن نیست از طرفی مطالبات از دانشمندان اسلامی هر روز، رو به افزایش است و از طرف دیگر نفوذ اسلام گسترده‌تر شده است و دشمنان هم تهاجم مضاعف خود را دارند؛ باید ابزار‌هایی داشته باشیم که پاسخگوی این حجم و این سطح از نیاز‌ها باشد.

رئیس مؤسسه آموزشی و پژوهشی امام خمینی (ره) بیان کرد: استکبار جهانی در عرصه فرهنگی یک جنگ تمام عیار را علیه مبانی و ارزش‌های اسلام و نظام اسلامی به راه انداخته است؛ آن‌ها از تمام ظرفیت فناوری‌های نوین در بالاترین سطح استفاده می‌کنند و ما نیز برای پیروزی باید مسلح به سلاح‌های نوین شویم.

 

  • هوش مصنوعی و مخاطرات

وی تصریح کرد: اگر انبوهی از اطلاعات در اختیار محقق قرار گیرد؛ انبوه خوانی بدون تعمق و تأمل از مخاطرات استفاده از فناوری آی تی و هوش مصنوعی خواهد بود؛ محقق نباید به داده‌های فروان به دست آمده از طریق فناوری اطلاعات اکتفا کرده و خیال کند که نیاز چندانی به تأملات عمیق ندارد؛ باید توجه داشت که فناوری، تنها زمینه را فراهم می‌کند و قدرت استنباط، نظریه‌پردازی و تجزیه و تحلیل که حرف اول را می‌زند، چیزی جدای از آن است.

آیت الله رجبی گفت: انحراف از مسیر و اهداف از دیگر مخاطرات این مسیر است؛ همه فعالیت‌های حوزوی برای تقرب به خداوند متعال صورت می‌گیرد و مخاطره غفلت از هدف، همواره و در همه حال مطرح است، ولی توانمندی‌های هوش مصنوعی می‌تواند یکی از معدات آن باشد و زمینه غفلت از هدف را فراهم کند.

عضوجامعه مدرسین حوزه افزود: در منابع اسلامی (آیات و روایات) که سر و کار روحانیون و از جمله محققان و مجتهدان با آن است، معرفت با اخلاق و معنویت عجین شده است؛ وقتی فناوری نوین تنها معلومات علمی را در اختیار محقق قرار می‌دهد، ممکن است از بعد معنوی غفلت شود که خطر جدی است و باید در خصوص آن چاره اندیشی شود. فعلا مدیریت فناوری‌های نوین و فضای مجازی در اختیار ما نیست و نمی‌توان فناوری‌های نوین را ایزوله کرد؛ از سوی دیگر دشمنان اسلام نیز توطئه‌های خودشان را با استفاده حداکثری از همین امکانات محقق می‌سازند که باید برنامه‌های لازم برای کنترل درونی محققان در نظر گرفته شود.

وی خواستار توجه و سرمایه گذاری نظام در خصوص توسعه و پیشرفت مطابق با موازین اخلاقی هوش مصنوعی شد.

مزایا و معایب هوش مصنوعی در حکمرانی و سرنوشت بشر

چهارشنبه, ۶ ارديبهشت ۱۴۰۲، ۰۴:۴۲ ب.ظ | ۰ نظر

حجت الاسلام دهداری به تشریح مسئله «هوش مصنوعی، مزایا و معایب در حکمرانی و سرنوشت بشر»، گفت: در آینده با مدلی روبرو می‌شویم که زندگی ما را تحت تاثیر قرار می‌دهد.
به گزارش رسا، حجت الاسلام هادی دهداری در نشست «هوش مصنوعی، مزایا و معایب در حکمرانی و سرنوشت بشر» از سلسله نشست‌های الگوی اسلامی ایرانی پیشرفت، با بیان اینکه هوش مصنوعی هنر آینده است که به وسیله آن می‌توان حکمرانی کرد، گفت: هوش مصنوعی از ۲۰۰ سال پیش و زمان «آمپر» مطرح شد. آمپر بعد از انقلاب صنعتی به دنبال این بود که راهی پیدا کند تا کار انسان راحت‌تر شود.

حجت الاسلام دهداری خاطرنشان کرد: در این میان فعل و انفعالات انسان بررسی شد به گونه‌ای که بتوان از ابزاری استفاده کرد تا به جای انسان این فعل و انفعالات را انجام داد. دوربین عکاسی در این میان نقش داشت و چند دهه بعد ابزاری مانند کامپیوتر شکل گرفت.

وی در ادامه افزود: شروع کار کامپیوتر با ترانزیستوری در مقیاس یک چراغ بود، در حالی که با پیشرفت‌های امروزه این تجهیزات بسیار، بسیار ریزتر شده است. در ابتدا انسان به دنبال این بود که با ابزاری خاص، جمع و تفریق انجام دهد، تلاش کرد و در ایجاد این ابزار موفق شد و رفته رفته در این مسیر دست به اقدامات بیشتری زد.

این پژوهشگر و برنامه نویس اظهار کرد: امروز انسان ابزارهایی برای تخیل کردن و ساخت تصاویر و... ایجاد کرده است. امروز با وجود ایجاد هوش مصنوعی، کامپیوتر می‌تواند ساعت‌ها با انسان صحبت کند و فرد متوجه این موضوع نشود. این سیر تحولی است که از زمان ساخت کامپیوتر ایجاد شده و امروز این ابزار محاسباتی هوشمندسازی شده، به درجه‌ بالایی از قدرت رسیده است که قابل مقایسه با گذشته نیست.

وی ادامه داد: شاید تا بیست سال آینده با کامپیوترهایی مواجه شویم که میلیاردها برابر بیشتر از کامپیوترهای امروزی از توانایی برخوردار هستند. این توانایی فقط در تحلیل داده نیست و بلکه در ذخیره اطلاعات نیز وجود دارد. همان طور که تا همین چند سال پیش فلاپی و پس از آن سی دی محل ذخیره اطلاعات بود اما امروز فلش‌های بسیار کوچک، حجم زیادی از اطلاعات را در خود ذخیره می‌کنند و این سیر تحولی به سرعت ادامه خواهد داشت.

حجت الاسلام دهداری تصریح کرد: امروز نرم افزارها و برنامه‌ نویسی‌ها به راحتی در دسترس هستند در حالی که در گذشته چنین نبود. این ابزار، امروز سهل الوصول شده است به گونه‌ای که برنامه‌ نویسی‌های قدرتمند سبب ایجاد ابزاری به نام جی پی تی شده است. چت جی پی تی یک تحلیل‌گر زبان است که کار خود را در سطح‌های پیچیده‌ای از نظر مفهومی در کسری از ثانیه انجام می‌دهد.

وی با بیان اینکه در هوش مصنوعی جدید، درک زبانی و درک معنایی بالا رفته است، گفت: در گذشته داده‌های کمی موجود بود اما امروز داده‌های کل وب که تاکنون به دست بشر بارگذاری شده می‌تواند در اختیار هوش مصنوعی قرار بگیرد و این می‌تواند به بهتر تحلیل کردن توسط آن کمک کند.

این پژوهشگر حوزه فناوری و هوش مصنوعی اظهار کرد: هوش مصنوعی وقتی با سوالی روبرو می‌شود به بانک اطلاعاتی خود مراجعه می‌کند و سرنخ را به دست می‌آورد و این جستجو همراه با فهم و درک کلمات و معنا رخ می‌دهد.

وی با بیان اینکه هوش مصنوعی محدود به چت جی پی تی نیست، خاطرنشان کرد: امروز با نوعی از هوش مصنوعی روبرو هستیم که با ما می‌تواند صحبت کند. در این میان می‌توان به اینترنت اشیا نیز اشاره کرد. در این میان ارتباط اشیا با هم به وسیله اینترنت صورت می‌گیرد و نتیجه آن تحلیل است. در اینجا انسان کنار گذاشته می‌شود و فرآیندها توسط اشیا صورت می‌گیرد. در واقع با هوش مصنوعی کنترل زندگی ما در اختیار نرم افزارها قرار می‌گیرد. این هوش در بسیاری از کارها مانند تشخیص بیماری به انسان کمک می‌کند.

حجت الاسلام دهداری تصریح کرد: ربات‌هایی که وارد زندگی ما می‌شوند بیشتر از یک وسیله هستند و پشت آن‌ها یک هوش مصنوعی قرار دارد. شاید در کشور خود کمتر با آن روبرو بوده‌ایم اما در آینده تکنولوژی در این زمینه بیش از این پیشرفت می‌کند و با اتفاقات خاصی در این زمینه روبرو می‌شویم.

وی با اشاره به مزایای هوش مصنوعی افزود: مزیت هوش مصنوعی این است که می‌تواند کارها را برای انسان ساده کند. هوش مصنوعی دستیار بسیار خوبی برای انسان است، به عنوان مثال می‌تواند یک دستیار قدرتمند برای یک برنامه‌نویس باشد.

این پژوهشگر و برنامه نویس گفت: نخستین عیبی که هوش مصنوعی دارد این است که شاید به علت کمبود داده‌ها، جواب‌های اشتباه به ما بدهد و این سبب گمراهی ما می‌شود. هوش مصنوعی می‌گوید که ما با همه رفیق هستیم، اما مبتنی بر اطلاعاتی که در کتابخانه‌اش موجود است به ما پاسخ می‌دهد. به عنوان مثال اگر سوال فقهی از او بپرسیم او پاسخ‌های اهل سنت به ما می‌دهد زیرا بیشترین اطلاعاتی که در کتابخانه‌اش موجود است اطلاعات اهل سنت است، بنابراین اطلاعاتی فیلتر شده به ما ارائه می‌کند و ما کنترلی روی آن نداریم.

وی با بیان اینکه با هوش مصنوعی مرجع‌های انسانی از بین می‌روند و قدرت فکر کردن از جامعه بشری گرفته می‌شود، گفت: اگر در زمان استفاده از اینستاگرام، داده‌های ورودی به ذهن انسان کنترل می‌شد حالا با هوش مصنوعی، اجازه فکر کردن از انسان گرفته می‌شود و این مصیبت، نظام آموزشی ما را دچار مشکل می‌کند.

حجت الاسلام دهداری تصریح کرد: بشر با ترسی به نام فقدان مواجه هست. اکنون با سوالاتی مواجهه می‌شویم در اخبار مبنی بر اینکه آیا هوش مصنوعی جای انسان را می‌گیرد؟ و گفته‌هایی از این قرار که زندگی انسان تحت اسارت هوش مصنوعی قرار خواهد گرفت. در واقع باید بگوییم دنیای امروز دنیای دولت‌ها نیست بلکه دنیای شرکت‌هاست بنابراین نمی‌توان با این روند مبارزه کرد.

وی ادامه داد: امروز با شرکت‌ها و کارخانه‌هایی مواجه هستیم که درآمدهایی بالاتر از کل بودجه کشور ما دارند. این شرکت‌ها در زندگی انسان دخالت کرده و سعی می‌کنند منافع خود را به زندگی ما تسری بدهند.

پژوهشگر حوزه فناوری و هوش مصنوعی عنوان کرد: ما در آینده با مدلی از هوش مصنوعی روبرو می‌شویم که زندگی ما را تحت تاثیر قرار می‌دهد. در گذشته اینستاگرام فکر ما را مدیریت می‌کرد اما امروز با شرکت‌های بزرگی روبرو می‌شویم که همه زندگی انسان را با هوش مصنوعی پیوند می‌دهند. این موضوع دست شرکت‌ها را در بحث حاکمیت باز می‌کند.

وی اضافه کرد: به عنوان مثال قانون‌هایی را قانون‌گذاران دنبال می‌کنند که شرکت‌هایی مانند همراه اول اجازه عملی شدن آن را نمی‌دهند مانند طرح صیانت از فضای مجازی. زیرا از نظر تکنیکی ما به آن‌ها وابسته هستیم و حمایت پشت صحنه نیز اجازه نمی‌دهد که در حکمرانی روند گذشته دنبال شود.

حجت الاسلام دهداری اظهار کرد: در دنیایی که کنترل زندگی بشر در دست هوش مصنوعی قرار می‌گیرد باید قدرت فکر کردن را حفظ کنیم و در این خصوص سرمایه گذاری کنیم. نباید اجازه بدهیم که صاحبان هوش مصنوعی کنترل زندگی ما را در اختیار بگیرند، در واقع باید با ترس خود به این مسئله بها بدهیم.

وی در ادامه افزود: شرکت‌های دانش بنیان باید حمایت جدی شوند تا مباحث علوم انسانی و فلسفی مرتبط با هوش مصنوعی مدیریت گردد، یعنی شرایط به گونه‌ای رقم بخورد که داده‌های هوش مصنوعی طبق آنچه که سازندگان آن می‌خواهند در اختیار ما قرار نگیرد و ما نیز در این میان با علوم و داده‌های خود تاثیرگذار باشیم.

حجت الاسلام دهداری گفت: از هم اکنون باید دست به کار شد و از این فرصت بهره برد. باید خود وارد میدان این تکنولوژی شویم که تا چند سال آینده مجبور به بستن چنین فضایی نشویم. شرکت‌هایی که اینگونه فناوری‌های پیشرفته را ایجاد می‌کنند باید حمایت شوند تا درگیر شرکت‌هایی که به دنبال ایجاد سلطه بر دنیا هستند نشویم.

استفاده از هوش مصنوعی در بانک اسلامی ابوظبی

چهارشنبه, ۶ ارديبهشت ۱۴۰۲، ۰۳:۴۴ ب.ظ | ۰ نظر

بانک اسلامی ابوظبی، هوش مصنوعی را در مرکز فرماندهی «ACE» خود قرار می‌دهد.
به گزارش کارگروه فناوری اطلاعات سایبربان؛ به گفته کارشناسان، ادغام هوش مصنوعی به نقطه‌ای رسیده است که بانک‌ها شروع به استقرار فناوری هوش مصنوعی در مقیاسی کرده‌اند تا مرتبط باقی بمانند.

بانک اسلامی ابوظبی (ADIB) یکی از بانک‌هایی است که هوش مصنوعی را در راهبرد و عملیات اصلی خود مرکزی می‌کند و توانایی بانک را برای دستیابی به 4 نتیجه کلیدی بهبود می‌بخشد : سود بالاتر، شخصی‌سازی، کارایی و چرخه‌های نوآوری سریع.

مرکز فرماندهی هوش مصنوعی بانک اسلامی ابوظبی، معروف به «ACE»، فعالیت‌های بانک را پوشش و حداکثر 25 داشبورد را به طور همزمان برای نقش‌های خاص در سازمان نمایش می‌دهد. هنگامی که صحبت از کمک به مدیریت کلاهبرداری و امنیت سایبری می‌شود، این مرکز می‌تواند بانک را برای جلوگیری از حملات سایبری و واکنش سریع و مؤثر به هرگونه نقض احتمالی قدرت دهد.

محمد عبدالباری (Mohamed Abdel Bary)، مدیر مالی گروه بانک اسلامی ابوظبی، گفت : «مرکز فرماندهی در برخورد با مشتریان به روشی بسیار شخصی‌تر کمک می‌کند و به آنها انتخاب‌ها، ایده‌ها و بینش‌هایی می‌دهد تا درست تصمیم‌گیری کنند. به طور خاص، کلان داده، تجزیه و تحلیل پیش‌بینی‌کننده را ترکیب و این داده‌ها را به بینش‌ها و تجربیات بسیار شخصی برای مشتریان تبدیل می‌کند. نتیجه این است که بانک اسلامی ابوظبی می‎تواند با یک کمپین متمرکز بر نیازهای مشتری وارد بازار شود.»

علاوه بر این، کارشناسان اعلام کردند که بخش بانکداری در امارات متحده عربی در حال استفاده از اتوماسیون فرآیند رباتیک (RPA) در مقیاس بزرگ برای خودکارسازی وظایف است که به آن‌ها اجازه می‌دهد روی کارهای مهم و با ارزش بالاتر تمرکز و در عین حال جریان‌های فرآیند دستی سطح بالا را خودکار کنند.

بانک اسلامی ابوظبی60 اتوماسیون فرآیند روباتیک را با استفاده از هوش مصنوعی برای وظایف عملیاتی، دستیاران مجازی یا رابط‌های مکالمه برای کمک به بخش‌های خدمات مشتری، علاوه بر تکنیک‌های یادگیری ماشینی برای شناسایی تقلب و پشتیبانی از تعهدنامه و مدیریت ریسک، به کار گرفته است.

باری اظهار داشت : «پتانسیل ایجاد ارزش قابل توجه است. این ارزش از افزایش شخصی‌سازی خدمات به مشتریان، کاهش هزینه‌ها از طریق کارایی‌های تولید شده با اتوماسیون بالاتر، کاهش نرخ خطا و استفاده بهتر از منابع و کشف فرصت‌های جدید و قبلاً محقق نشده مبتنی بر توانایی بهبود یافته برای پردازش و تولید داده‌ها ناشی می‌شود.»

ناشران یک مجله آلمانی که مصاحبه با مایکل شوماخر که با هوش مصنوعی نوشته شده بود را چاپ کردند، سردبیر را اخراج و از خانواده این راننده مسابقات اتومبیلرانی «فرمول یک»عذرخواهی کردند.
به گزارش مهر به نقل از رویترز، شوماخر که تاکنون ۷ بار قهرمان مسابقات شده و اکنون ۵۴ ساله است، پس از یک جراحت شدید مغزی هنگام اسکی در دسامبر ۲۰۱۳ میلادی تاکنون در انظار عمومی دیده نشده است.

خانواده او هفته جاری اعلام کردند یک دعوی حقوقی علیه هفته نامه «دی آکتوئل» (Die Aktuelle) اقامه می کنند که به گروه رسانه Funke تعلق دارد.

این گروه رسانه ای در بیانیه در وب سایت خود عذرخواهی کرده است.

د بیانکا پوهلمان مدیرعامل نشریات گروه در بخشی از بیانیه نوشته است: این گزارش نامتناسب و گمراه کننده هرگز نباید چاپ می شد. گزارش مذکور به هیچ وجه با استانداردهای خبرنگاری که ما و خوانندگان مان از Funke انتظار داریم همخوانی ندارد. انتشار این مقاله عواقب فردی برای پرسنل در برخواهد داشت.

آن هافمن، سردبیر «دی آکتوئل» که از سال ۲۰۰۹ مسئولیت روزنامه نگاری این روزنامه را بر عهده داشت، از امروز از وظایف خود برکنار می شود.

در جدیدترین شماره این مجله تصویری خندان از شوماخر روی جلد همراه با تیتر «مایکل شوماخر، نخستین مصاحبه» دیده می شود.

داخل مجله اظهارنظرهایی دیده می شد که توسط هوش مصنوعی تولید شده بود. خانواده شوماخر درباره وضعیت سلامت این راننده سابق مسابقات فرمول یک بسیار محرمانه رفتار می کنند.

آمریکا گروه ویژه «هوش مصنوعی» ایجاد می‌کند

يكشنبه, ۳ ارديبهشت ۱۴۰۲، ۰۷:۴۱ ب.ظ | ۰ نظر

وزیر امنیت داخلی ایالات متحده از تشکیل یک گروه عملیاتی ویژه مرتبط با هوش مصنوعی خبر داد.

الخاندرو مایورکاس هدف از ایجاد این گروه را سنجیدن چگونگی استفاده از هوش مصنوعی برای انجام بسیاری از کارها، از حفاظت از زیرساخت‌های حیاتی گرفته تا غربالگری محموله‌ها و تشخیص دادن محصولاتی که از راه بیگاری ساخته‌ شده‌اند، عنوان کرد.

به گزارش خبرگزاری رویترز، در حالی که هوش مصنوعی پدیده جدیدی نیست، ولی محبوبیت ناگهانی «چَت‌جی‌پی‌تی» بات مکالمه‌ای‌ شرکت «اوپِن‌اِی‌آی» در ماه‌های اخیر، مقامات را در سراسر جهان به تکاپو انداخته تا ببینند چگونه می‌توانند از این فناوری به بهترین شکل ممکن استفاده و از انتشار اطلاعات نادرست و فعالیت‌های جنایی جلوگیری کنند.

مایورکاس گفت که این فناوری «چشم‌انداز خطر [برای امنیت ملی ما] را به شدت تغییر خواهد داد.»

او افزود: «وزارتخانه ما در استفاده مسئولانه از هوش مصنوعی برای مصون‌کردن سرزمین و دفاع در برابر استفاده بدخواهانه از این فناوری تحول‌آفرین پیشگام خواهد بود.»

مایورکاس گفت این گروه عملیاتی ویژه همچنین چگونگی استفاده از هوش مصنوعی برای بهبود و پیشرفت کارهایی مثل غربالگری محموله‌های وارداتی به آمریکا و تشخیص و یافتن کالاهای غیرقانونی مانند فنتانیل و یا محصولات ساخته از طریق کار اجباری را بررسی خواهد کرد.

از دیگر تلاش‌های این گروه، به گفته مایورکاس، استفاده از هوش مصنوعی برای ایمن‌کردن شبکه‌های برق و سیستم‌های تامین آب است که بیم آن می‌رود هر دوی آنها از اهداف بالقوه دشمنان آمریکا باشند.

وزیر امنیت داخلی آمریکا گفت: «روند سریع دگرگونی فناوری – دقیقا همین لحظه‌ای که الان در آن هستیم – مستلزم آن است که ما نیز همین امروز عمل کنیم.»

مایورکاس گفت که هوش مصنوعی هنوز «در شرف شکوفایی» است و هنوز زود است که بگوییم آیا مضرات آن به فوایدش می‌چربد [یا نه.]»

چند شرکت هوش مصنوعی که چند ماه قبل هنرمندان به دلیل نقض قانون حق معنوی آثار از آن‌ها شکایت کرده بودند از دادگاه خواستند این شکایت را رد کند.
به گزارش خبرگزاری صدا و سیما به نقل از رویترز، شرکت‌های Stability AI، Midjourney و DeviantArt به گروهی از هنرمندان که آن‌ها را به نقض گسترده قوانین حق معنوی آثار و حقوق انتشار عمومی آن‌ها در سیستم‌های هوش مصنوعی مولد متهم کرده بودند، حمله کردند. 
این شرکت‌ها از دادگاه فدرال سانفرانسیسکو خواستند که شکایت دسته جمعی پیشنهادی هنرمندان را با این استدلال که تصاویر ایجاد شده توسط هوش مصنوعی مشابه آثار هنرمندان نیست، رد کند. این شکایت به تصاویر خاصی که گفته می‌شود مورد سوء استفاده قرار گرفته، اشاره نکرده است. 
چند هنرمند در ماه ژانویه از این شرکت‌ها شکایت کردند. این هنرمندان ادعا کردند که کپی غیرمجاز آثارشان برای آموزش سیستم‌ها و ایجاد تصاویر تولید شده توسط هوش مصنوعی به سبک آنها، حقوق شان را نقض می‌کند.

ادامه حملات ایلان ماسک: چت‌جی‌پی‌تی دروغگوست

چهارشنبه, ۳۰ فروردين ۱۴۰۲، ۰۴:۴۵ ب.ظ | ۰ نظر

ایلان ماسک می‌گوید که رقیبی را برای چت‌جی‌پی‌تی که توسط مایکروسافت پشتیبانی می‌شود راه اندازی خواهد کرد.
به گزارش فارس به نقل از رویترز، ایلان ماسک گفت که پلتفرم هوش مصنوعی را راه اندازی خواهد کرد که آن را «TruthGPT» می نامد تا پیشنهادات مایکروسافت و گوگل را به چالش بکشد.

او از شرکت اپن‌ای‌آی تحت حمایت مایکروسافت، شرکتی که پشت ربات‌های چت‌جی‌پی‌تی است، به دلیل آموزش هوش مصنوعی برای دروغ گفتن انتقاد کرد و گفت که اپن‌ای‌آی اکنون به سازمان منبع بسته و انتفاعی تبدیل شده است که متحد نزدیک مایکروسافت است.

او همچنین لری پیج، یکی از بنیانگذاران گوگل را متهم کرد که ایمنی هوش مصنوعی را جدی نمی گیرد.

ماسک در مصاحبه‌ای با تاکر کارلسون از کانال فاکس نیوز که روز دوشنبه پخش شد، گفت: «من قصد دارم چیزی را شروع کنم که آن را «TruthGPT» می‌نامم، یا یک هوش مصنوعی حداکثر جویای حقیقت که تلاش می‌کند ماهیت جهان را درک کند.

او گفت TruthGPT ممکن است بهترین راه برای ایمنی باشد که بعید است انسان ها را نابود کند.

افراد آشنا به رویترز به رویترز گفتند که ماسک از محققان هوش مصنوعی شرکت آلفابت گوگل برای راه اندازی استارت آپی به عنوان رقیب اپن‌ای‌آی استفاده کرده است.

طبق یک پرونده ایالتی، ماسک ماه گذشته شرکتی به نام X.AI Corp را در نوادا ثبت کرد. این شرکت ماسک را به عنوان تنها مدیر و جرد برچال، مدیر عامل دفتر خانواده ماسک را به عنوان منشی معرفی کرد.

این اقدام پس از آن صورت گرفت که ماسک و گروهی از کارشناسان هوش مصنوعی و مدیران صنعت با اشاره به خطرات بالقوه برای جامعه خواستار توقف شش ماهه در توسعه سیستم‌های قدرتمندتر از GPT-4 شدند.

ماسک همچنین در مصاحبه با کارلسون هشدارهای خود را در مورد هوش مصنوعی تکرار کرد و گفت: هوش مصنوعی فوق‌العاده هوشمند می‌تواند به‌طور باورنکردنی خوب بنویسد و به طور بالقوه افکار عمومی را دستکاری کند.

او آخر هفته در توییتی نوشت که در زمان ریاست جمهوری باراک اوباما، رئیس جمهوری سابق ایالات متحده با او ملاقات کرده و گفته که واشنگتن باید مقررات هوش مصنوعی را وضع کند.

ماسک در سال 2015 شرکت اپن‌ای‌آی را بنیانگذاری کرد، اما در سال 2018 از هیئت مدیره شرکت کنار رفت. در سال 2019، او در توییتی نوشت که این شرکت را ترک کرده زیرا باید روی تسلا و اسپیس ایکس تمرکز می کرد.

شرکت مایکروسافت در ژانویه، از سرمایه‌گذاری چند میلیارد دلاری بیشتری روی اپن‌ای‌آی خبر داد که رقابت با گوگل را تشدید کرد و به رقابت برای جذب بودجه هوش مصنوعی در سیلیکون ولی دامن زد.

توصیه‌های مهم هنگام کار با چت‌جی‌پی‌تی

چهارشنبه, ۳۰ فروردين ۱۴۰۲، ۰۴:۴۲ ب.ظ | ۰ نظر

چت‌جی‌پی‌تی اکنون کاربران بسیاری را در دنیا پیدا کرده و توجه به مسائل حریم خصوصی در استفاده از این فناوری ضروری است.
به گزارش خبرگزاری صداوسیما به نقل از بی‌جی‌آر، چت‌جی‌پی‌تی همچنان برای مردم جذاب است، زیرا کاربران راه‌های جدیدی را برای استفاده از این فناوری پیدا کرده اند. محصولات رقیب نیز در دست ساخت هستند، از جمله بارد (Bard) و هوش مصنوعی جستجوی گوگل. علاوه بر این، هر شرکت بزرگ فناوری به دنبال ادغام چت‌جی‌پی‌تی یا انتشار نرم افزار هوش مصنوعی مشابه است.

چه بخواهید از چت‌جی‌پی‌تی اصلی یا یک محصول مشابه هوش مصنوعی استفاده کنید، باید از خود محافظت کنید. در ادامه، چهار نکته که باید هنگام استفاده از چت‌جی‌پی‌تی در نظر داشته باشید، گفته شده:

 

  • داده‌های شخصی خود را با چت‌جی‌پی‌تی به اشتراک نگذارید

شرکت اوپن ای آی (OpenAI) تمام داده‌هایی را که می‌تواند برای آموزش چت‌جی‌پی‌تی جمع آوری می‌کند. چت‌جی‌پی‌تی همچنین از داده‌هایی که در چت‌ها وارد می‌کنید استفاده می‌کند، بنابراین جزئیات شخصی را در مکالمه وارد نکنید. همه چیز ذخیره می‌شود و حریم خصوصی چت‌جی‌پی‌تی در حال حاضر عالی نیست. شما هرگز نمی‌توانید از OpenAI بخواهید که آن داده‌ها را حذف کند.

ایتالیا و کانادا اولین کشور‌هایی بودند که چت‌جی‌پی‌تی را در رابطه با مسائل حریم خصوصی مورد بررسی قرار دادند.

برنامه‌های نامعتبر چت‌جی‌پی‌تی را نصب نکنید

چت‌جی‌پی‌تی به قدری پیشرفته است که می‌تواند کدنویسی بدافزاری هم کند. اما هکر‌ها برای هدف قرار دادن شما با بدافزاری که بدون کمک چت‌جی‌پی‌تی ایجاد کرده‌اند، به هوش مصنوعی نیاز ندارند.

گزارش‌های مختلف، جزئیات حملات بدافزار مبتنی بر چت‌جی‌پی‌تی را که در حال حاضر رخ می‌دهند، شرح داده‌اند و نتایج نشان می‌دهد، همه آن‌ها به طور مشابه عمل می‌کنند. کاربران ناآگاه بر این باورند که برنامه‌های واقعی را روی رایانه‌های خود نصب می‌کنند. اما آن‌ها برنامه‌های جعلی چت‌جی‌پی‌تی با بدافزار دریافت می‌کنند که داده‌های آن‌ها را می‌دزدد.

برنامه‌های چت‌جی‌پی‌تی را از منابع نامعتبر نصب نکنید. قبل از دانلود و نصب هر چیزی روی دستگاه خود آن را بررسی کنید.

 

  • از چت‌جی‌پی‌تی منبع بخواهید

همیشه از چت‌جی‌پی‌تی بخواهید منابعی را برای ادعا‌هایی که ارائه می‌کند همراه با پیوند‌ها ارائه کند. به این ترتیب، می‌توانید اطمینان حاصل کنید که آنچه این فناوری به شما می‌گوید دقیق است. همانطور که هوش مصنوعی ممکن است فوق العاده هوشمند باشد، هنوز قابل اعتماد نیست. هنگام پاسخ دادن به سؤالات اشتباه می‌کند و این چیزی است که همیشه باید به خاطر بسپارید.

چت‌جی‌پی‌تی و هر محصول هوش مصنوعی دیگری می‌تواند اطلاعاتی را ارائه دهد که صحیح نیست. شرکت اوپن ای آی باید به قابلیت اطمینان این ربات بپردازد، به خصوص که برخی از کاربران در حال بررسی شکایات علیه چت‌جی‌پی‌تی هستند.

 

  • قوانین کپی رایت را فراموش نکنید

از آنجایی که شرکت اوپن ای آی به چت‌جی‌پی‌تی داده‌های زیادی را برای آموزش مدل زبان می‌دهد، ربات همه چیز را به خاطر می‌آورد. این شامل مطالبی می‌شود که ممکن است تحت حمایت حق نسخه برداری باشند. اما از نگاه چت‌جی‌پی‌تی، این مهم نخواهد بود. ممکن است ربات محتوای آثار محافظت شده را کلمه به کلمه نمایش دهد.

اگر محتوای دارای حق نسخه‌برداری که چت‌جی‌پی‌تی به شما می‌دهد استفاده کنید، ممکن است قانون حق نسخه‌برداری را نقض کرده باشید.

۳ دلیل که چت‌بات‌ها را فاجعه امنیتی می‌کند

چهارشنبه, ۳۰ فروردين ۱۴۰۲، ۰۲:۵۴ ب.ظ | ۰ نظر

سعید میرشاهی – مدل‌های رایانه‌ای کلان‌زبان، (Large language models) مملو از آسیب‌پذیری‌های امنیتی هستند اما هنوز در مقیاس وسیع در محصولات فناوری جاسازی می‌شوند. مدل‌های زبانی هوش مصنوعی در حال حاضر درخشان‌ترین و هیجان‌انگیزترین پدیده فناوری هستند اما این مدل‌ها، مستعد ایجاد یک مشکل بزرگ جدید هستند:

کنترل تاکسی‌های تهران با هوش مصنوعی

سه شنبه, ۲۹ فروردين ۱۴۰۲، ۰۹:۳۷ ق.ظ | ۰ نظر

مدیر عامل سازمان تاکسیرانی شهر تهران با بیان اینکه هشتاد هزار تاکسی با هوش مصنوعی در پایتخت کنترل می‌شود، گفت: قرار است که ۴۰ پروژه تحولی در سازمان تاکسیرانی برای ارتقای بهره‌وری رانندگان و بهبود خدمت‌رسانی اجرا شود.
به گزارش خبرگزاری صدا وسیما، مهدی وحدت‌کار افزود: ۴۰ پروژه کوچک و بزرگ برای سازمان تاکسیرانی تعریف شده است تا بتوانیم نحوه نظارت را تغییر دهیم. باید از تکنولوژی‌های جدید استفاده کنیم. می‌خواهیم نرم‌افزار‌هایی روی گوشی‌های رانندگان تاکسی نصب کنیم یا تجهیزاتی بر روی تاکسی‌ها نصب شود تا براساس این مدل نظارت بر تاکسیرانی فراهم شود.
وی با بیان اینکه ۷۸ هزار و ۷۸۴ تاکسی در تهران وجود دارد که قطعا نظارت بر روی تمام آن‌ها سخت است، گفت:  قرار است که تاکسی‌ها را نظارت کنیم. به عنوان مثال یک تاکسی گردشی داریم که شاید هر جایی دیدیم بگوید در حال جابجایی مسافر هستم یا به منزل می‌روم و ... ما باید ابزار‌هایی داشته باشیم که تاکسی‌ها خدمت‌رسانی به مردم کنند به همین دلیل می‌خواهیم از روش‌های اینترنتی استفاده کنیم تا بدانیم تاکسی کجاست.
وی در ادامه درباره هوشمندسازی تاکسی ها تصریح کرد: ما بحث شاتل سرویس را داریم. مبدأ و مقصد مشخص است و این مبدأ و مقصد براساس نیاز مسافر صورت می‌گیرد. مثلا ما چند نقطه اضطراری را مشخص می‌کنیم و در ساعات پیک تعدادی ون را به آن نقطه اضافه می‌کنیم. این ون‌ها به مرکز کنترل تاکسیرانی متصل هستند. به ون‌ها اعلام می‌شود که به فلان مرکز از دحام برود و مسافر را جابجا کند. سناریو چیده می‌شود و در ون‌ها به صورت هوشمند به محل‌های پرازدحام اعزام می‌شوند و ما می‌توانیم با این کار مشکل را برطرف کنیم.
وحدت‌کار ادامه داد: مثلا به یک ون اعلام می‌شود که به میدان ونک برود و مسافران را به مقصد سیدخندان برساند و به ون بعدی مقصد دیگری می‌دهد. در اصل یک هوش مصنوعی است و ما این کار را توسط شرکت‌های دانش‌بنیان انجام می‌دهیم. ون‌ها به زودی به تهران می‌آیند و این کار را اجرایی خواهیم کرد.
مدیر عامل سازمان تاکسیرانی شهر تهران درباره افرادی هم که تاکسی دارند، اما برای جابه جایی مسافر از آن استفاده نمی‌کنند، گفت: تعدادی تاکسی در تهران وجود دارد که در خدمت مردم نیست. پدیده‌ای که سالهاست با آن مواجه بوده‌ایم. برخی افراد تاکسیران نیستند، اما تاکسی را گرفتند و از مزایای آن استفاده می‌کنند. با این روش نظارت دیگر تاکسیران واقعی مشخص خواهد شد.
وی همچنین با بیان اینکه تاکسی بانوان قرار است به صورت ۲۴ ساعته باشد و دائما سرویس‌دهی کند و پیگیری‌هایی صورت گرفته و به زودی این امر هم اجرا می‌شود، گفت: تعاملاتی نیز  با تاکسی‌های اینترنتی داشته‌ایم. جلسات مفصلی گذاشته‌ایم. تصور اینکه بر روی یک مسافر دو نفر بجنگند درست نیست. ما جلساتی گذاشته‌ایم و مدل‌های تعاملی استخراج شده است.
وی افزود: احتمالا به زودی امکان واگذاری سهام برخی از تاکسی‌های اینترنتی به راننده‌های تاکسی فراهم می‌شود. تاکسیران می‌تواند با سرویس‌دهی بخشی از سهام شرکت را داشته باشد البته به هر میزانی که توانایی دارد. تعاملات اولیه صورت گرفته، اما هنوز نهایی نشده است. ما همچنین بر روی مدل کسب و کار برنامه ریزی کنیم.

درخواست آلمان برای اعمال سریع مقررات هوش مصنوعی

دوشنبه, ۲۸ فروردين ۱۴۰۲، ۰۴:۵۵ ب.ظ | ۰ نظر

وزیر دیجیتال فدرال آلمان خواستار اعمال مقررات سریع اتحادیه اروپا برای کاربرد هوش مصنوعی و تنظیم این فن آوری جدید و انطباق آن با ارزش‌های اروپایی شد.
به گزارش تسنیم به نقل از "ان تی وی" آلمان، ایتالیا اولین کشور غربی است که ChatGPT را به دلیل نگرانی‌های فزاینده مسدود کرد" . فولکر ویسینگ"، وزیر دیجیتال فدرال آلمان فکر می‌کند که این راه اشتباه است و برای مقابله با هوش مصنوعی بر استراتژی متفاوتی تکیه می‌کند.

وزیر دیجیتال آلمان خواستار مقررات سریع اتحادیه اروپا برای کاربردهای هوش مصنوعی شده است. ویزینگ در گفتگویی با نشریه بیلد آلمان گفت: هوش مصنوعی وارد زندگی روزمره شده است و زندگی ما را به طور اساسی تغییر خواهد داد. اتحادیه اروپا باید به سرعت به این موضوع واکنش نشان دهد. همچنین وزارت کشور فدرال آلمان خواهان یک چارچوب قانونی شفاف در این راستا است.

ویزینگ گفت: ما باید اکنون عاقلانه واکنش نشان دهیم و هوش مصنوعی را به طور معقولی تنظیم کنیم، قبل از اینکه برای این کار خیلی دیر شود. این کار نباید دوباره سال‌ها طول بکشد. باید اطمینان حاصل شود که این فناوری جدید تنها در صورتی قابل استفاده است که به ارزش‌های اروپایی مانند دموکراسی، شفافیت و بی طرفی پایبند باشد.

وزیر دیجیتال آلمان در عین حال نسبت به مقررات افراطی هشدار داد و از ایتالیا برای مسدود کردن برنامه ChatGPT در آنجا انتقاد کرد. وی در این باره گفت: اگر همه کشورهای اروپایی از این مثال پیروی کنند، ما هیچ برنامه کاربردی هوش مصنوعی را توسعه نخواهیم داد. پس ما در این صورت در آینده فقط با سیستم‌های چینی و آمریکایی سرو کار خواهیم داشت.

این مقام آلمانی گفت: سیستم های توتالیتر می خواستند از هوش مصنوعی برای محدود کردن آزادی استفاده کنند. وی گفت: ما نباید میدان را به آنها بسپاریم. ما به برنامه‌های کاربردی هوش مصنوعی اروپایی نیاز داریم که بر اساس یک مبنای قانونی قابل اعتماد ایجاد شوند. مردم نمی‌خواهند بدون این فناوری کار کنند. ممنوعیت راه کاملاً اشتباهی است.

یک سخنگوی وزارت کشور فدرال آلمان هم به «هندلزبلات» گفت که استفاده از هوش مصنوعی پتانسیل بسیار خوبی دارد. وی گفت: با این حال، ایجاد تعادل بین باز بودن به نوآوری و یک چارچوب قانونی روشن ضروری است.

برنامه‌های مبتنی بر هوش مصنوعی مانند ChatGPT با کمک هوش مصنوعی محتوا تولید می‌کنند. کاربران می‌توانند دستورات یا جملاتی را مشخص کنند که سیستم‌های مربوطه به‌طور مستقل آن‌ها را با کمک حجم وسیعی از داده‌های اینترنت تکمیل می‌کنند.

نتایج جدیدترین نظر سنجی هم نشان می دهد که اکثر شهروندان آلمانی از قوانین سختگیرانه تر برای توسعه هوش مصنوعی حمایت می‌کنند.

اکثریت آلمانی‌ها خواهان قوانین واضح برای هوش مصنوعی هستند. رئیس پارلمان آلمان نیز مقامات امنیتی و دادستان‌های عمومی را در این راستا مسئول ارزیابی کرده است.

هوش مصنوعی مشاور قابل اعتماد پزشکان است

دوشنبه, ۲۸ فروردين ۱۴۰۲، ۰۴:۰۰ ب.ظ | ۰ نظر

تیمی از محققان در تازه‌ترین مطالعات خود به بررسی قابل اعتماد بودن توصیه‌های پزشکی هوش مصنوعی پرداختند.
به گزارش خبرگزاری صدا و سیما بیمارستان‌ها شروع به استفاده از «ابزار‌های پشتیبانی تصمیم» با هوش مصنوعی کرده‌اند که می‌توانند بیماری را تشخیص دهند، درمان را پیشنهاد کرده و یا نتیجه جراحی را پیش‌بینی کنند، اما هیچ الگوریتمی همیشه درست نیست، بنابراین چگونه پزشکان می‌دانند چه زمانی به توصیه‌های هوش مصنوعی اعتماد کنند.

یک مطالعه جدید به رهبری کیان یانگ، استادیار علوم اطلاعات در کالج محاسباتی و علوم اطلاعات کورنل آن اس بورز، نشان می‌دهد که اگر ابزار‌های هوش مصنوعی بتوانند مانند یک همکار به پزشک مشاوره دهند، در آن صورت پزشکان بهتر می‌توانند مزایای توصیه هوش مصنوعی را بسنجند.

محققان مطالعه جدید را با عنوان «استفاده از ادبیات زیست پزشکی برای کالیبره کردن اعتماد پزشکان به سیستم‌های پشتیبانی تصمیم گیری هوش مصنوعی» در آوریل در کنفرانس CHI انجمن ماشین‌های محاسباتی در مورد عوامل انسانی در سیستم‌های محاسباتی ارائه خواهند کرد.

یانگ گفت: پیش از این، بیشتر محققان هوش مصنوعی با توضیح نحوه عملکرد الگوریتم زیربنایی یا داده‌هایی که برای آموزش هوش مصنوعی استفاده شده‌اند، به پزشکان کمک کرده‌اند تا پیشنهادات ابزار‌های پشتیبانی تصمیم را ارزیابی کنند، اما آموزش در مورد چگونگی پیش‌بینی‌های هوش مصنوعی کافی نبود. بسیاری از پزشکان تلاش می‌کردند دریابند آیا این ابزار در آزمایش‌های بالینی تایید شده است یا خیر که معمولا با این ابزار‌ها اتفاق نمی‌افتد.

یانگ گفت: «وظیفه اصلی یک پزشک یادگیری نحوه عملکرد هوش مصنوعی نیست. اگر بتوانیم سیستم‌هایی بسازیم که بر اساس نتایج کارآزمایی‌های بالینی و مقالات ژورنالی که اطلاعات قابل اعتمادی برای پزشکان هستند، به تایید پیشنهاد‌های هوش مصنوعی کمک کند، می‌توانیم به آن‌ها کمک کنیم تا بفهمند که آیا هوش مصنوعی احتمالا برای هر مورد خاص درست است یا خیر».

بنا بر  اعلام مدیکال اکسپرس ‎ برای توسعه این سیستم، محققان ابتدا با ۹ پزشک در طیف وسیعی از تخصص‌ها و سه کتابدار بالینی مصاحبه کردند. آن‌ها دریافتند هنگامی که پزشکان در مورد روش صحیح اقدام با هم اختلاف نظر دارند، نتایج حاصل از تحقیقات زیست پزشکی مرتبط و مطالعات موردی را با در نظر گرفتن کیفیت هر مطالعه و میزان تطبیق آن با مورد مورد نظر پیگیری می‌کنند.

یانگ و همکارانش نمونه اولیه ابزار تصمیم گیری بالینی خود را ساختند که این فرآیند را با ارائه شواهد زیست پزشکی در کنار توصیه هوش مصنوعی تقلید می‌کند. آن‌ها از GPT-۳ برای یافتن و خلاصه کردن تحقیقات مرتبط استفاده کردند.

یانگ گفت: «ما سیستمی ساختیم که اساسا سعی می‌کند ارتباطات بین فردی پزشکان را بازسازی کند و همان نوع شواهد را از ادبیات بالینی برای حمایت از پیشنهاد هوش مصنوعی به دست آورد.

رابط ابزار پشتیبانی تصمیم، اطلاعات بیمار، تاریخچه پزشکی و نتایج آزمایش‌ها را از یک طرف، با تشخیص شخصی یا پیشنهاد درمانی هوش مصنوعی از سوی دیگر و به دنبال آن مطالعات بیوپزشکی مربوطه فهرست می‌کند. در پاسخ به بازخورد پزشک، محققان یک خلاصه کوتاه برای هر مطالعه اضافه کردند که جزئیات جمعیت بیمار، مداخلات پزشکی و نتایج بیمار را برجسته می‌کرد تا پزشکان بتوانند به سرعت مهم‌ترین اطلاعات را جذب کنند.

تیم تحقیقاتی ابزار‌های پشتیبانی تصمیم گیری اولیه را برای سه تخصص عصب شناسی، روانپزشکی و مراقبت‌های تسکینی توسعه دادند و از سه پزشک از هر تخصص خواستند تا نمونه اولیه را با ارزیابی موارد نمونه آزمایش کنند.

در مصاحبه‌ها، پزشکان گفتند از شواهد بالینی قدردانی می‌کنند، آن‌ها را بصری و قابل درک می‌دانند و آن را به توضیح عملکرد درونی هوش مصنوعی ترجیح می‌دهند.

یانگ گفت: «این یک روش بسیار قابل تعمیم است. این نوع رویکرد می‌تواند برای همه تخصص‌های پزشکی و سایر کاربرد‌هایی که به شواهد علمی نیاز است، مانند پلتفرم‌های پرسش و پاسخ برای پاسخ‌گویی به سوالات بیمار یا حتی بررسی خودکار واقعیت‌های اخبار مرتبط با سلامت، کار کند. امیدوارم که آن را در انواع مختلف سیستم‌های هوش مصنوعی که در حال توسعه هستند تعبیه شده ببینم تا بتوانیم آن‌ها را برای تمرین بالینی مفید کنیم»

تلاش دولت‌ها برای مقررات‌گذاری ChatGPT

يكشنبه, ۲۷ فروردين ۱۴۰۲، ۰۴:۱۲ ب.ظ | ۰ نظر

در پی رشد فزاینده چت‌جی‌پی‌تی در جهان نگرانی‌هایی پیرامون سیستم‌های هوش مصنوعی ایجاد شده و کشور‌های مختلف در تلاش تنظیم قوانینی برای این فناوری هستند.

به گزارش خبرگزاری صداوسیما به نقل از رویترز، پیشرفت‌های سریع در هوش مصنوعی مانند چت‌جی‌پی‌تی که توسط مایکروسافت پشتیبانی می‌شود، تلاش‌های دولت‌ها را برای توافق روی قوانین حاکم بر استفاده از فناوری پیچیده می‌کند.

آژانس حفاظت از داده‌های ایتالیا اعلام کرد در صورتی که شرکت آمریکایی OpenAI تا پایان آوریل از خواسته‌های حفاظت از داده‌ها و حریم خصوصی پیروی کند، ممنوعیت موقت فناوری هوش مصنوعی چت‌جی‌پی‌تی را لغو خواهد کرد.

در ادامه آخرین اقداماتی که نهاد‌های حاکم ملی و بین المللی برای تنظیم ابزار‌های هوش مصنوعی انجام داده اند، گفته شده:

استرالیا

سخنگوی وزارت علوم و صنعت این کشور در ۱۲ آوریل گفت: دولت درباره نحوه پاسخگویی به هوش مصنوعی از نهاد اصلی مشاوره علمی استرالیا درخواست مشاوره کرده و در حال بررسی مراحل بعدی است.

انگلیس

این کشور در ماه مارس اعلام کرد قصد دارد به جای ایجاد یک نهاد جدید، مسئولیت مدیریت هوش مصنوعی را بین تنظیم‌کننده‌های حقوق بشر، سلامت و ایمنی و رقابت تقسیم کند.

چین

تنظیم گر فضای مجازی چین در ۱۱ آوریل از پیش‌نویس اقداماتی برای مدیریت خدمات هوش مصنوعی مولد پرده برداری کرد و گفت: از شرکت‌ها می‌خواهد تا ارزیابی‌های امنیتی را قبل از ارائه خدمات به مردم به مقامات ارائه کنند.

دفتر اقتصاد و فناوری اطلاعات چین در ماه فوریه اعلام کرد: پکن، پایتخت چین، از شرکت‌های پیشرو در ساخت مدل‌های هوش مصنوعی که می‌توانند چت‌جی‌پی‌تی را به چالش بکشند، حمایت خواهد کرد.

اتحادیه اروپا

قانونگذاران اتحادیه اروپا در حال بحث درباره معرفی قانون هوش مصنوعی اتحادیه اروپا هستند که بر هرکسی که محصول یا خدماتی را ارائه می‌دهد که از هوش مصنوعی استفاده می‌کند، حکومت می‌کند. این قانون سیستم‌هایی را که می‌توانند خروجی‌هایی مانند محتوا، پیش‌بینی‌ها، توصیه‌ها یا تصمیم‌گیری‌های تأثیرگذار بر محیط‌ها ایجاد کنند، پوشش می‌دهد.

قانون‌گذاران پیشنهاد کرده‌اند که ابزار‌های هوش مصنوعی مختلف براساس سطح ریسک درک شده، از کم تا غیرقابل قبول طبقه‌بندی شوند.

فرانسه

ناظر حریم خصوصی این کشور (CNIL) در ۱۱ آوریل گفت: در حال بررسی چندین شکایت در مورد چت‌جی‌پی‌تی پس از ممنوعیت موقت این فناوری در ایتالیا به دلیل مشکوک به نقض قوانین حفظ حریم خصوصی است.

مجلس ملی فرانسه در ماه مارس استفاده از نظارت تصویری هوش مصنوعی را در بازی‌های المپیک ۲۰۲۴ پاریس، بدون توجه به هشدار‌های گروه‌های حقوق مدنی مبنی بر اینکه این فناوری تهدیدی برای آزادی‌های مدنی است، تصویب کرد.

ایتالیا

ایتالیا در ۳۱ مارس پس از اینکه آژانس ملی داده، نگرانی‌هایی را درباره نقض احتمالی حریم خصوصی و عدم تأیید سن کاربران ۱۳ ساله یا بالاتر، همانطور که درخواست کرده بود، ابراز و یک ممنوعیت موقت برای چت‌جی‌پی‌تی OpenAI اعمال کرد.

روز چهارشنبه، آژانس حفاظت از داده‌های این کشور، مهلتی تا پایان آوریل برای OpenAI تعیین کرد تا خواسته‌های خود در مورد حفاظت از داده‌ها و حریم خصوصی را قبل از از سرگیری این سرویس در کشور برآورده کند.

ژاپن

وزیر تحول دیجیتال تارو کونو در ۱۰ آوریل گفت که خواهان نشست آتی وزرای دیجیتال G۷ است. این جلسه برای بحث در مورد فناوری‌های هوش مصنوعی از جمله چت‌جی‌پی‌تی و صدور یک پیام یکپارچه G۷ برای ۲۹ تا ۳۰ آوریل تعیین شده است.

اسپانیا

این کشور در ۱۱ آوریل به رویترز گفت: آژانس حفاظت از داده‌های اسپانیا از ناظر حریم خصوصی اتحادیه اروپا خواسته تا نگرانی‌های مربوط به حریم خصوصی چت‌جی‌پی‌تی را ارزیابی کند.

آمریکا

دولت آمریکا در ۱۱ آوریل اعلام کرد در پس ابهامات و سوالاتی که درخصوص تأثیر هوش مصنوعی بر امنیت ملی و نظام آموزش وجود دارد، به دنبال وضع قوانینی درباره سیستم‌های هوش مصنوعی است. جو بایدن قبلا به مشاوران علم و فناوری گفته بود که هوش مصنوعی می‌تواند در رسیدگی به بیماری‌ها و تغییرات آب و هوایی کمک کند، اما رسیدگی به خطرات بالقوه برای جامعه، امنیت ملی و اقتصاد نیز مهم است.

کشور ایران با توجه به وسعت، شرایط اقلیمی‌و جغرافیایی و همچنین جمعیت رو به پیری، نیازمند بکارگیری خدمات و راهکارهای فناورانه برای ارایه خدمات درمانی از دسترسی به سوابق پزشکی بیماران گرفته، تا معاینات پزشکی و حتی اجرای عمل‌های جراحی و در یک کلام تحقق مقوله «مراقبت‌های بهداشتی از راه دور» یا Remote healthcare  است.
به گزارش آی‌تی آنالیز، فارغ از شرایط خاص و آتی کشور، ایران اکنون یکی از قطب‌های مهم گردشگری درمانی در منطقه به شمار می‌رود که سالانه پذیرای گردشگران زیادی از کشورهای همسایه و دیگر نقاط دنیا برای انجام عمل‌های جراحی و درمانی است که فرصت‌های درآمدی مهمی‌را در اختیار کشور قرار داده است.
این در حالیست که یکی از مهم‌ترین موارد استفاده فناوری نسل پنجم که با ادامه گسترش این فناوری در سراسر جهان در حال ظهور است، ارایه انواع مراقبت‌های پزشکی از راه دور است.
چراکه مزیت‌های عمده شبکه‌های 5G در ارایه انواع خدمات و نظارت از راه دور شامل عواملی نظیر اتصالات با پهنای باند سریع و کم‌تاخیر، امنیت و اطمینان بیشتر در ارتباطات و همچنین افزایش ظرفیت برای تعداد دستگاه‌های متصل در هر کیلومتر مربع است.
به عبارت دیگر با اتکا به این فناوری، پزشکان و بیماران می‌توانند مشاوره ویدیویی در زمان واقعی داشته باشند و به سوابق پزشکی و نتایج آزمایشات از هر کجا دسترسی داشته باشند. همین مزیت نیز می‌تواند دسترسی به مراقبت را به ویژه برای کسانی که در مناطق روستایی یا مناطق محروم هستند بهبود بخشد. 
اگرچه پیش از این تجربه پیاده‌سازی نخستین «جراحی از راه دور» در ایران همپای کشورهای تکنولوژیک و توسعه‌یافته مبتنی بر شبکه پرسرعت و 5G  توسط همراه اول محقق شد تا این اقدام گواهی عملی و اجرایی بر امکان تحقق این کاربری مهم بر بستر شبکه نسل پنجم باشد.



نکته قابل توجه آنکه همراه اول از سال‌های گذشته تحقق این کاربرد مهم بر بستر شبکه نسل پنج را در دستور کار گذاشته بود و سرانجام  یوزکیس 5G جراحی از راه دور را برای نخستین بار در نمایشگاه تلکام 1397 رونمایی کرد و در تاریخ دوم تیرماه سال 1400 نیز نخستین جراحی واقعی رباتیک از راه دور در ایران با سامانه «جراحی از راه دور» بومی‌و از فاصله ۷ کیلومتری بین بیمارستان‌های امام‌خمینی (ره) و سینا بر روی یک حیوان انجام شد.
در آن مقطع با بیان اینکه برای انجام آن جراحی مهم، پهنای باند 5 گیگابیت در ثانیه آماده شده بود که عملا حدود 20 درصد آن مصرف شد، آمادگی همراه اول برای انجام عمل‌های جراحی توسط پزشکان روی انسان، آن هم در آینده نزدیک و بر بستر این اپراتور رسما اعلام شد.


•    فرصت تلفیق نسل 5 و هوش مصنوعی
اکنون اما در کنار فناوری پیشران و تحول‌گرایانه نسل 5 یک فرصت تاریخی دیگر نیز در اختیار کشور قرار گرفته است؛ تلفیق نسل پنج و هوش مصنوعی.
 هوش مصنوعی امروزه با رشدی انفجاری در کشورها و عرصه‌های مختلف مواجه شده است و با توجه به کاربردهای موثر و متنوع آن تا کنون صدها میلیارد دلار در دنیا روی این فناوری سرمایه‌گذاری شده است.
در نامه‌ای که اخیرا در The Lancet Infectious Diseases منتشر شده است، پزشکان انگلیسی در همکاری با دانشگاه لیورپول، تحقیقات متعدد و پیچیده‌ای روی هوش مصنوعی کردند که در نتیجه آن، پزشکان از عملکرد دقیق هوش مصنوعی در تشخیص عفونت و تجویز دارو حیرت زده شدند.


لذا چندان تعجب آور نیست که هوش مصنوعی می‌تواند در مراقبت‌های بهداشتی از راه دور نیز نقش مهمی‌ داشته باشد. 
به عبارت دیگر با تجزیه و تحلیل مقادیر زیادی از داده‌های بیمار، الگوریتم‌های هوش مصنوعی می‌توانند به ارائه‌دهندگان مراقبت‌های بهداشتی در شناسایی الگوها و تشخیص دقیق‌تر کمک کنند. 
چت ربات‌ها و دستیاران مجازی مجهز به هوش مصنوعی نیز می‌توانند توصیه‌های پزشکی اولیه را به بیماران ارایه دهند و به آنها کمک کنند تا سلامت خود را به طور موثرتری از خانه مدیریت کنند. 
همچنین سیستم‌های نظارت از راه دور بیمار که از هوش مصنوعی استفاده می‌کنند می‌توانند علائم حیاتی بیمار را ردیابی کنند و در صورت تشخیص هر گونه ناهنجاری نسبت به ارایه‌دهندگان مراقبت‌های بهداشتی هشدار دهند. 
هوش مصنوعی همچنین می‌تواند برای کشف و توسعه دارو مورد استفاده قرار گیرد و به محققان این امکان را می‌دهد که مجموعه داده‌های عظیمی ‌را تجزیه و تحلیل کنند و درمان‌های جدید بالقوه را سریعتر از همیشه شناسایی کنند. 
به طور کلی، هوش مصنوعی پتانسیل بهبود کیفیت مراقبت‌های بهداشتی از راه دور را با ارایه مراقبت‌های شخصی‌تر، بهبود تشخیص‌ها و حمایت از تصمیم‌گیری در زمان واقعی توسط متخصصان مراقبت‌های بهداشتی دارد. 

 

•    زمان بهره‌گیری از تجربیات ملی
لذا با توجه به اهمیت و وابستگی فناوری هوش مصنوعی در تحقق خدمات درمانی از راه دور به شبکه‌های پرسرعت و پیشرفته نسل 5 و همچنین اجرای موفق یکی از بالاترین اقدامات در علم پزشکی، یعنی جراحی رباتیک از راه دور بر بستر شبکه همراه اول که نیازمند سرعت مطمئن و بالا بود، پرسش اصلی اینجاست که آیا زمان آن نرسیده که ما نیز حاصل این تجربیات و دستاوردهای ملی را را با هوش مصنوعی تلفیق کنیم؟ 


در همین حال اگر نمونه موفق اجرای نخستین جراحی رباتیک از راه دور بر بستر شبکه نسل 5 همراه اول، آن هم حدود 2 سال قبل را نداشتیم، این موضوع بیشتر جنبه تئوریک و شعاری داشت، اما با توجه به انجام این مهم، تقاضا و انتظار برای حمایت از توسعه و گسترش همزمان شبکه 5G و فناوری هوش مصنوعی در کشور بیش از پیش است.
به عبارت دیگر با توجه به نیاز به سرمایه‌گذاری‌ها و برنامه‌ریزی‌های کلان برای آینده نه چندان دور، اکنون یک فرصت و مسوولیت تاریخی به عهده متولیان عرصه ارتباطات و اپراتورهای ارتباطی کشور است.
مساله دیگر اینجاست که امکان ارایه مشاوره و خدمات درمانی و پزشکی از راه دور، با توجه به سابقه، توانمندی و تجربیات شناخته شده ایران در دنیا، این فرصت تنها محدود به جغرافیای کشور نمانده و در صورت فراهم‌سازی شبکه و زیرساخت‌های ارتباطی پرسرعت و قابل اتکا در کشور، امکان ارایه «مراقبت‌های بهداشتی از راه دور» به انبوهی از متقاضیان در دیگر نقاط دنیا نیز فراهم شده و فرصت‌های اقتصادی و تجربی زیادی برای کشور به ارمغان خواهد داشت.
لذا در این راه مسوولیت متولیان و رگولاتورهای عرصه ارتباطات کشور، رفع موانع و تسهیل هر چه بیشتر زمینه شتابدهی به توسعه فناوری‌های 5G و هوش مصنوعی است و مسوولیت اپراتورهای موبایل کشور (همراه اول و ایرانسل) نیز برنامه‌ریزی و سرمایه‌گذاری‌های کلان در اجرای زمینه‌ها و زیرساخت‌های تحقق این فناوری‌ها است.


•    الزامات هوشمندسازی اپراتورها
در گام نخست اما تحقق این مهم با توجه به ماموریت و عملکرد اپراتورها، ابتدا نیازمند هوشمندسازی شبکه خود این اپراتورهاست.
امروزه اپراتورهای موبایل دیگر محدود به ارایه خدمات اولیه تلفن و اینترنت نیستند و اکنون صنعت مخابرات در مرکز رشد فناوری قرار دارد که توسط خدمات باند پهن موبایل و5G  در عصر اینترنت اشیا (IoT) رهبری می‌شود. 
لذا با توجه به برآوردها، هدف‌گذاری‌ها، سرمایه‌گذاری‌ها و مسیر حرکت اپراتورهای بزرگ دنیا، انتظار می‌رود این رشد به دلیل پذیرش سریع هوش مصنوعی (AI) در صنعت مخابرات ادامه یابد. 


بر اساس برآوردها اندازه بازار جهانی هوش مصنوعی در ارتباطات از راه دور، از 11.89 میلیارد دلار در سال 2020 تا سال 2027 به 14.99 میلیارد دلار خواهد رسید.
این در حالیست که بر اساس روند و تجربه اپراتورهای بزرگ دنیا، استفاده از هوش مصنوعی منجر به تحقق مواردی نظیر بهینه سازی شبکه، پیش‌بینی و اجرای تعمیرات، بکارگیری دستیاران مجازی برای پشتیبانی از مشتری، پیاده‌سازی اتوماسیون فرآیندهای رباتیک، جلوگیری از وقوع کلاهبرداری‌ها، و افزایش درآمد در شبکه اپراتورهای موبایل می‌شود. آن هم در شرایطی که با سیل روزافزون فرصت‌ها و تقاضا برای استفاده از زیرساخت‌های فراهم شده بر بستر فناوری نسل 5 و هوش مصنوعی از سوی مشترکان و متقضیان مواجه هستند.
در همین راستا اگرچه همراه اول به عنوان پیشران ارتباطات و فناوری کشور اقدامات گسترده‌ای برای سرمایه‌گذاری، پیاده‌سازی و گسترش کاربردهای مبتنی بر فناوری‌های نسل 5 و هوش مصنوعی را در دستور کار داشته و عملیاتی کرده است، لیکن همانطور که ذکر شد با توجه به جایگاه و نقش کلیدی دو اپراتور اصلی کشور یعنی همراه اول و ایرانسل در تلفیق نسل 5 و هوش مصنوعی و بکارگیری آن در «مراقبت‌های بهداشتی از راه دور» که یکی از نیازهای حساس و مهم ایران در آینده نه چندان دور است، تصمیمات مهم متولیان عرصه ارتباطات از یک سو و اقدامات این دو اپراتور از سوی دیگر، از اهمیتی تاریخی برای کشور برخوردار است.

از ChatGPT استفاده کنیم یا نه؟

يكشنبه, ۲۷ فروردين ۱۴۰۲، ۰۲:۰۵ ب.ظ | ۰ نظر

عباس پورخصالیان - اظهار نظر دربارۀ معایب و مزایای چَتباتِ ChatGPT (که روبات گفتگوکنندۀ برخط با کاربران است) پنج ماه است که موضوع روز و دستور کار شوراها و کمیسیون‌های سیاست گذاری در اتحادیۀ اروپا است، و از

شروط ایتالیا برای رفع فیلتر ChatGPT

شنبه, ۲۶ فروردين ۱۴۰۲، ۰۶:۵۳ ب.ظ | ۰ نظر

منبع: مهر
آژانس حفاظت از داده‌های ایتالیا فهرستی از شرایط فعال شدن ربات هوش مصنوعی گپ چت جی پی تی را اعلام کرده است که باید تا ۳۰ آوریل برآورده شوند.
به گزارش مهر به نقل از رویترز، ایتالیا به علت نگرانی از برخی سوءاستفاده‌ها از چت جی پی تی و تبعات آن، برای فیلترینگ این ابزار اقدام کرده بود.
تقریباً دو هفته پیش OpenAI که مورد حمایت شرکت مایکروسافت است در ایتالیا فیلتر شد. این کشور به طور موقت پردازش اطلاعات شخصی توسط آن را محدود کرد و تحقیقاتی را در مورد نقض مشکوک قوانین حریم خصوصی توسط چت جی پی تی آغاز کرد.
این نهاد موسوم به گارانته در بیانیه‌ای در روز چهارشنبه مجموعه‌ای از خواسته‌های خود برای رفع فیلتر چت جی پی تی را مطرح کرد.
 سخنگوی ایتالیایی مایکروسافت در این مورد گفت: "ما خوشحالیم که ایتالیا در حال بررسی تصمیم خود است و مشتاقانه منتظر همکاری با آنها هستیم تا به زودی دوباره ChatGPT را در اختیار مشتریان خود در ایتالیا قرار دهیم."
 این نهاد از OpenAI خواست ابزاری فراهم کند تا همه افرادی که داده‌هایشان در چت جی پی تی مورد استفاده است، بتوانند درخواست تصحیح یا حذف داده‌های شخصی خود که به‌طور نادرست توسط این سرویس ایجاد شده‌اند را مطرح کنند. OpenAI همچنین باید به غیر کاربران اجازه دهد تا «به روشی ساده و در دسترس» با پردازش داده‌های شخصی خود برای اجرای الگوریتم‌های چت جی پی تی مخالفت کنند.
 همچنین از این شرکت خواسته شده تا تا پایان سپتامبر یک سیستم تأیید سن را راه اندازی کند تا دسترسی کاربران زیر ۱۳ سال به چت جی پی تی ممنوع شود.

چاک شومر، رهبر اکثریت سنا، روز پنجشنبه گفت که تلاش‌هایی را برای ایجاد قوانینی در مورد هوش مصنوعی برای رسیدگی به نگرانی‌های امنیت ملی و آموزش آغاز کرده است.
به گزارش خبرگزاری صداوسیما به نقل از رویترز، چاک شومر، رهبر اکثریت سنا گفت: تلاش‌هایی را برای ایجاد قوانینی درمورد هوش مصنوعی برای رسیدگی به نگرانی‌های امنیت ملی و آموزش آغاز کرده، زیرا استفاده از برنامه‌هایی مانند ChatGPT در حال گسترش است.

شومر که یک دموکرات است در بیانیه‌ای گفت: چارچوبی را تهیه و منتشر کرده که یک رژیم نظارتی جدید را ترسیم می‌کند که از آسیب‌های بالقوه فاجعه‌بار به کشور ما جلوگیری کرده و همزمان تضمینی برای پیشرفت و پیشروی آمریکا در این فناوری تحول‌آفرین است.

چت جی پی تی، یک برنامه هوش مصنوعی که به تازگی توجه عموم را به دلیل توانایی در نوشتن سریع پاسخ به طیف گسترده‌ای از سوالات جلب کرده است. این فناوری با بیش از ۱۰۰ میلیون کاربر فعال ماهانه به سریع‌ترین برنامه مصرف کننده در تاریخ تبدیل شده است.

طرح شومر به تایید کنگره و کاخ سفید نیاز دارد و ممکن است ماه‌ها یا بیشتر طول بکشد. با این حال این اقدام، ملموس‌ترین گامی است که دولت آمریکا ممکن است مقررات جدیدی برای رسیدگی به نگرانی‌های فزاینده در مورد هوش مصنوعی مولد اتخاذ کند.

شومر گفت: برای پیشی گرفتن از این فناوری جدید قدرتمند ضروری است تا از آسیب‌های بالقوه گسترده به جامعه و امنیت ملی جلوگیری و در عوض از آن با پیشبرد قوانین قوی و دو حزبی استفاده کنیم.

پیشنهاد شومر از شرکت‌ها می‌خواهد که به کارشناسان مستقل اجازه دهند تا قبل از انتشار عمومی یا به‌روزرسانی، فناوری‌های هوش مصنوعی را بررسی و آزمایش کنند و به کاربران اجازه دسترسی به یافته‌ها را بدهند. او هنوز پیش نویس قانونی را تنظیم نکرده است.

شومر به انتشار رویکرد خود در این هفته برای تنظیم هوش مصنوعی اشاره کرد و آن را زنگ بیدارباشی برای ملت خواند. او گفت: برای آمریکا ضروری است که قوانین حاکم بر چنین فناوری تحول آفرینی را رهبری و شکل دهد و به چین اجازه ندهد در نوآوری پیشروی کند.

جو بایدن هفته گذشته گفت: باید دید آیا هوش مصنوعی خطرناک است یا خیر. او گفت: به نظر من، شرکت‌های فناوری مسئولیت دارند که از ایمن بودن محصولاتشان قبل از عمومی کردن آن‌ها مطمئن شوند. وزارت بازرگانی روز سه شنبه اعلام کرد: به دنبال نظرات عمومی در مورد اقدامات بالقوه پاسخگویی برای هوش مصنوعی است

تنظیم‌کننده فضای سایبری چین هم از پیش‌نویس اقداماتی برای مدیریت خدمات هوش مصنوعی مولد پرده برداری کرد و گفت که از شرکت‌ها می‌خواهد ارزیابی‌های امنیتی را قبل از ارائه خدمات به عموم به مقامات ارائه کنند.

شرکت مایکروسافت یک سرمایه گذار بزرگ در OpenAI است که چت جی پی تی را ایجاد کرد. یک شرکت نرم‌افزاری و گوگل هم میلیارد‌ها دلار برای هوش مصنوعی سرمایه‌گذاری کرده‌اند تا در میان رقابت شدید در سیلیکون ولی، برتری پیدا کند.

این سه شرکت هنوز درباره طرح شومر اظهار نظر نکردند.