ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

  عبارت مورد جستجو
تحلیل وضعیت فناوری اطلاعات در ایران

۴۸۶ مطلب با کلمه‌ی کلیدی «هوش مصنوعی» ثبت شده است

تحلیل


پیش‌نویس سند ملی هوش مصنوعی ارایه شد

يكشنبه, ۲۹ مرداد ۱۴۰۲، ۰۳:۱۵ ب.ظ | ۰ نظر

 پیش‌نویس «سند ملی هوش مصنوعی» در نخستین نشست میز تخصصی هوش مصنوعی ارائه شد.

به گزارش مرکز ارتباطات و اطلاع رسانی معاونت علمی، فناوری و اقتصاد دانش بنیان ریاست جمهوری، در ابتدای این جلسه که به میزبانی دبیرخانه شورای‌ عالی انقلاب ‌فرهنگی و با حضور نمایندگان سازمان‌ها و دستگاه‌های مختلف دولتی و بخش خصوصی برگزار شد، محمد نژادپور دبیر میز تخصصی به تبیین اهمیت هوش مصنوعی با توجه ‌به فرمایشات مقام معظم رهبری پرداخت.

وی در ادامه بر کاربردها، اسناد و شاخص‌های مرتبط در حوزه هوش مصنوعی، جایگاه کشور در رتبه‌بندی‌های بین‌المللی و ارتباط بیانیه گام دوم انقلاب اسلامی با فناوری هوش مصنوعی مروری داشت.

بر اساس این گزارش، در ادامه رشاد حسینی، دبیر ستاد توسعه فناوری‌های هوش مصنوعی و رباتیک به‌ مرور اجمالی پیش‌نویس فعلی سند ملی هوش مصنوعی پرداخت. این سند پیش از این توسط ستاد اقتصاد دیجیتال نگارش و سپس مسئولیت آن به این ستاد محول شده است.

 

تمرکز سند بر هوش مصنوعی صنعتی باشد

پس از ارائه پیش‌نویس، نمایندگان دستگاه‌ها و شرکت‌ها به بیان نقطه‌نظرات خود در راستای بهبود کیفیت سند ملی هوش مصنوعی پرداختند. در ابتدا نماینده نظام صنفی رایانه‌ای گفت: در حال حاضر این دغدغه مطرح است که علاوه بر سندی که توسط ستاد در حال نگارش است، مرکز ملی فضای مجازی و فراکسیون هوش مصنوعی و حکمرانی داده مجلس نیز در حال انجام کار مشابهی هستند. از همین رو لازم است هماهنگی‌هایی صورت بگیرد تا از دوباره‌کاری پرهیز شود.

وی در ادامه پیشنهاد داد که تمرکز سند بر هوش مصنوعی صنعتی باشد و نقش بخش خصوصی در اقتصاد هوش مصنوعی پررنگ‌تر دیده شود تا بتوان زیست‌بومی ایجاد کرد که به درآمدزایی کمک کند.

در جلسه مذکور نماینده ستاد کل نیروهای مسلح نیز خواستار ایجاد ارتباط مناسب بین سند شورای‌ عالی انقلاب‌ فرهنگی و اسناد حاصل از فعالیت‌های مرکز ملی فضای مجازی و فراکسیون هوش مصنوعی مجلس شد.

وی در ادامه اظهار داشت: در سند راهبردی فضای مجازی ۳۹ اقدام کلان وجود دارد که چند بند آن مرتبط با هوش مصنوعی بوده و مناسب است که در پیش‌نویس سند ملی آن بندها پوشش داده شود.

 

نفوذ هوش مصنوعی در بخش‌های مختلف در اولویت باشد

سخنران دیگر این جلسه، محمد سعید سیف، عضو هیات‌ علمی دانشگاه بود که به اهمیت مکانیزم‌ها، نقشه راه و تقسیم وظایف به‌ صورت بخشی پرداخت و گفت: پیشنهاد می شود شاخص‌های ارزیابی در سند به گونه ای تنظیم شود که نفوذ هوش مصنوعی در بخش‌های مختلف کشور در اولویت قرار بگیرد.

فؤاد قادری، عضو هیات‌ علمی دانشگاه نیز در سخنانی بر ‌ضرورت توجه به تحقیقات پایه‌ای در سند هوش مصنوعی و اهمیت توجه به توسعه کاربرد علاوه بر توسعه علم و فناوری تاکید کرد.

 

شکل‌گیری زیست‌بوم هوش مصنوعی مورد توجه باشد

سایر حاضران در جلسه نیز به بیان دیدگاه‌ها و دغدغه‌های خود پرداختند. آینده‌پژوهی در راستای توجه به فرصت‌ها و تهدیدهای فناوری هوش مصنوعی در سطح ملی و بین‌المللی، توجه به هوش مصنوعی به‌صورت همگرا با سایر فناوری‌های راهبردی مانند نانو و اینترنت اشیا، فقدان زیست‌بوم هوش مصنوعی در کشور و تدوین سند به منزله فضاسازی برای شکل‌گیری آن و توجه به اهمیت نقش دولت در مرحله شکل‌گیری زیست‌بوم هوش مصنوعی کشور، بخشی از دغدغه های مطرح شده بود.

همچنین ضرورت آگاهی‌بخشی در جامعه مدنی در حوزه هوش مصنوعی و نقش صداوسیما و آموزش‌ و پرورش، تدوین طرحی در تقسیم کار ملی برای قابلیت پاسخ سریع برای چالش‌های روز در حوزه هوش مصنوعی باتوجه‌ به ماهیت و تغییرات سریع آن، توجه به رضایتمندی و رفاه مردم در چشم‌انداز سند و توجه به مفاهیم عدالت و مسئولیت‌پذیری در سند از دیگر مسایل مطرح شده توسط حاضران در جلسه بود.

نقش‌آفرینی شرکت‌های بزرگ در زیست‌بوم و نقش آنها در تقویت استارتاپها، تبیین راهبردی ویژه برای جبران عقب‌افتادگی‌ها در حوزه هوش مصنوعی کشور و توجه به هوش مصنوعی به‌عنوان زنجیره‌ای ذیل تحول دیجیتال، دیگر دغدغه های سخرانان بود.

کریم زاهدی، معاون نظارت و ارزیابی ستاد علم و فناوری نیز بر توجه به ‌نظام عرضه و تقاضا، زیست‌بوم داده، توجه به روابط بین‌الملل و تعریف نگاشت نهادی در سند ملی هوش مصنوعی تأکید کرد.

نیویورک‌تایمز از «ChatGPT» شکایت می‌کند

يكشنبه, ۲۹ مرداد ۱۴۰۲، ۰۳:۰۹ ب.ظ | ۰ نظر

نشریه نیویورک‌تایمز احتمالا از اُپن اِی آی (OpenAI) به دلیل استفاده چت‌بات هوش مصنوعی «چت جی پی تی» از مقاله‌های این روزنامه برای تولید متن شکایت کند

به گزارش خبرگزاری صداوسیما به نقل از interestingengineering، نیویورک‌تایمز از اینکه اُپن اِی آی (OpenAI) برای استفاده از محتوای آن هزینه‌ای نمی‌پردازد ناراضی است و نگران است که «چت جی پی تی» با ارائه پاسخ‌هایی بر اساس گزارش‌های نیویورک‌تایمز ترافیک آنلاین این نشریه را کاهش دهد. 
به گفته منابع آگاه که نخواستند نامشان فاش شود، تایمز و اُپن اِی آی چند هفته در حال مذاکره برای دستیابی به توافق بوده‌اند، اما مذاکرات به بن‌بست خورده و نیویورک‌تایمز اکنون در حال بررسی گزینه‌های قانونی است. 
شکایت نیویورک‌تایمز یک مورد برجسته در زمینه فناوری نوظهور هوش مصنوعی مولد است که محتوای جدیدی از داده‌های موجود ایجاد می‌کند. 
 «چت جی پی تی» یکی از پیشرفته‌ترین نمونه‌های این فناوری است و می‌تواند متنی منسجم و مرتبط در موضوعات مختلف را با استفاده از مجموعه داده عظیمی که از اینترنت استخراج شده است، تولید کند. 
با این حال، این مجموعه داده شامل میلیون‌ها مقاله از تایمز و سایر ناشران است که بدون اجازه کپی شده‌اند. تایمز ادعا می‌کند که این موضوع، حقوق مالکیت معنوی آن را نقض می‌کند و «چت جی پی تی» با استفاده از گزارش‌های آن به عنوان منبع اطلاعات با روزنامه‌نگاری رقابت می‌کند. 
این نشریه به ویژه در مورد تأثیر «چت جی پی تی» بر موتور‌های جستجو که به طور فزاینده‌ای از ابزار‌های مولد هوش مصنوعی برای ارائه پاسخ به سؤالات کاربران استفاده می‌کنند، نگران است. 
 تایمز نگران است که اگر کاربران پاسخ‌هایی را از «چت جی پی تی» دریافت کنند که بر اساس گزارش این نشریه باشد، انگیزه کمتری برای بازدید از وب‌سایت و مطالعه مقالات آن خواهند داشت و این می‌تواند به درآمد و شهرت روزنامه لطمه بزند.  
پیامد‌های قانونی هوش مصنوعی مولد هنوز نامشخص است، زیرا هیچ سابقه‌ای برای چنین مواردی وجود ندارد. با این حال، کارشناسان می‌گویند اگر تایمز بتواند ثابت کند که «چت جی پی تی» حق نسخه‌برداری‌اش را نقض می‌کند، می‌تواند یک پرونده قوی علیه اُپن اِی آی داشته باشد.

هوش مصنوعی کلمات رمز را سرقت می‌کند

جمعه, ۲۷ مرداد ۱۴۰۲، ۰۳:۰۴ ب.ظ | ۰ نظر

مطالعه‌ها نشان می‌دهد هوش مصنوعی می‌تواند گذر واژه‌ی کاربران را با دقت ۹۵ درصد از طریق گوش دادن به صدای فشردن صفحه کلید سرقت کند.

به گزارش خبرگزاری صداوسیما به نقل از نیویورک‌پست، مطالعه‌ها نشان می‌دهد هوش مصنوعی می‌تواند گذر واژه‌ی کاربران را با دقت ۹۵ درصد از طریق گوش دادن به صدای فشردن صفحه کلید سرقت کند.

بر اساس نتایج مطالعه‌ای که در اوایل ماه جاری منتشر شد، هکر‌ها می‌توانند گذرواژه‌ی کاربران را با دقتی تقریباً عالی از طریق گوش دادن به ضربه‌های کلید افراد و با کمک ابزار‌های هوش مصنوعی سرقت کنند.

گروهی از دانشمندان کامپیوتر مستقر در انگلیس یک مدل هوش مصنوعی را آموزش دادند تا صدا‌های ایجاد شده توسط ضربه زدن به کلید در نسخه ۲۰۲۱ مک بوک پرو (که یک لپ تاپ محبوب به حساب می‌آید) را شناسایی کند.

بر اساس نتایج مطالعه منتشر شده توسط دانشگاه کورنل، زمانی که برنامه هوش مصنوعی در یک گوشی هوشمند نزدیک فعال شد، توانست گذر واژه  تایپ شده را با دقت فوق العاده ۹۵ درصد بازتولید کند.

این ابزار هوش مصنوعی مورد علاقه هکرها، در حین گوش دادن به تایپ کردن از طریق میکروفون لپ‌تاپ در یک کنفرانس ویدیویی (از طریق برنامه زوم) بسیار دقیق بود.

محققان گفتند که ضربه‌های کلید را با دقت ۹۳ درصد بازتولید می‌کند که یک رکورد است.

محققان هشدار دادند که خیلی  از کاربران از این خطر که بازیگران بد می‌توانند از طریق رصد تایپ آن‌ها دسترسی غیرمجاز به حساب‌شان داشته باشند بی اطلاع هستند (نوعی حمله سایبری که آن را "حمله کنترل جانبی صوتی" نامیدند).

به عنوان مثال، هنگام تایپ رمز عبور، افراد به طور مرتب صفحه نمایش خود را پنهان می‌کنند، اما برای مخفی کردن صدای صفحه کلید خود کاری انجام نمی‌دهند.

برای اندازه‌گیری دقت، محققان ۳۶ کلید لپ‌تاپ را در مجموع ۲۵ بار فشار دادند که از میزان فشار و انگشت متفاوت بود.
این برنامه قادر به گوش دادن به عناصر شناسایی هر کلید، مانند طول موج صدا بود. این گوشی هوشمند، یک آیفون ۱۳ مینی بود که در فاصله ۱۷ سانتی متری از صفحه کلید قرار داشت.

امکان کمک ابزار‌های هوش مصنوعی به هکر‌ها یک خطر دیگری برای این فناوری در حال رشد است.

خالق «چت جی‌پی‌تی» در مرز ورشکستگی

سه شنبه, ۲۴ مرداد ۱۴۰۲، ۰۳:۴۴ ب.ظ | ۰ نظر

بر اساس گزارش SimilarWeb، تعداد کاربرانی که از وب سایت چت جی‌پی‌تی بازدید کرده‌اند در ماه ژوئیه سال ۲۰۲۳ نسبت به ماه ژوئن ۱۲ درصد کاهش داشته و از ۱.۷ میلیارد به ۱.۵ میلیارد رسیده است. این داده‌ها شامل کاربرانی نمی‌شود که از واسط برنامه‌نویسی کاربردی (API) اُپن ای‌آی استفاده می‌کنند که به توسعه‌دهندگان اجازه می‌دهد به جی‌پی‌تی دسترسی داشته باشند و آن را در اپلیکیشن‌های خود ادغام کنند.

هزینه‌های هنگفت چت جی‌پی‌تی شرکت اُپن‌ای‌آی (OpenAI) را تهدید می‌کند و این شرکت روزانه ۷۰۰ هزار دلار برای اجرای چت جی‌پی‌تی که یکی از خدمات هوش مصنوعی شاخص خود است، خرج می‌کند.

به گزارش ایسنا و به نقل از آی‌ای، گزارش شده که شرکت اُپن ای‌آی با یک بحران مالی مواجه است که می‌تواند منجر به ورشکستگی آن شود.

چت جی‌پی‌تی از یک مدل زبانی قدرتمند به نام جی‌پی‌تی (GPT) استفاده می‌کند و می‌تواند مکالمات واقع بینانه و جذابی را در مورد موضوعات مختلف برقرار کند.

با این حال، به رغم قابلیت‌های چشمگیر، چی جی‌پی‌تی نتوانسته درآمد کافی برای شرکت اُپن ای‌آی برای پوشش هزینه‌های خود فراهم کند. این استودیوی هوش مصنوعی همچنین سعی کرده از نسخه‌های جدیدتر جی‌پی‌تی خود مانند GPT-۳.۵ و GPT-۴ درآمدزایی کند، اما موفقیت چندانی نداشته است.

کاهش پایگاه کاربران

این گزارش همچنین نشان می‌دهد که پایگاه کاربران اُپن ای‌آی طی چند ماه گذشته به طور پیوسته در حال کاهش بوده است. بر اساس گزارش SimilarWeb، تعداد کاربرانی که از وب سایت چت جی‌پی‌تی بازدید کرده‌اند در ماه ژوئیه سال ۲۰۲۳ نسبت به ماه ژوئن ۱۲ درصد کاهش داشته و از ۱.۷ میلیارد به ۱.۵ میلیارد رسیده است. این داده‌ها شامل کاربرانی نمی‌شود که از واسط برنامه‌نویسی کاربردی (API) اُپن ای‌آی استفاده می‌کنند که به توسعه‌دهندگان اجازه می‌دهد به جی‌پی‌تی دسترسی داشته باشند و آن را در اپلیکیشن‌های خود ادغام کنند.

با این حال، از واسط‌های برنامه‌نویسی کاربردی OpenAI با چندین مدل زبانی منبع باز که برای استفاده و اصلاح رایگان هستند، مانند ۲ LLaMA و نسخه‌های دیگر نیز رقابت می‌کنند.

خطرات هوش مصنوعی و مقررات اخلاقی

این گزارش همچنین حاکی از آن است که بین سم آلتمن (Sam Altman) به عنوان یکی از بنیانگذاران و مدیر عامل شرکت اُپن ای‌آی و سایر استودیو‌های هوش مصنوعی درگیری وجود دارد. در حالی که اُپن ای‌آی بر کسب سود و توسعه نسخه‌های پیشرفته‌تر جی‌پی‌تی متمرکز است، آلتمن در مورد خطرات هوش مصنوعی صحبت کرده است، به خصوص اگر توسط دولت قوانینی برای آن تنظیم نشده باشد.

آلتمن بار‌ها هشدار داده که اگر هوش مصنوعی بر اساس ارزش‌های انسانی کنترل و هدایت نشود، میلیون‌ها شغل را از بین می‌برد و مشکلات اجتماعی و اخلاقی ایجاد می‌کند. برخی از کارشناسان فناوری حتی حدس می‌زنند که آلتمن در حال گذراندن یک لحظه فرانکشتاینی است. لحظه‌ای که در آن از خلق هیولایی که نمی‌تواند آن را رام کند پشیمان است.

به رغم نگرانی‌های آلتمن، اُپن ای‌آی به دنبال راه‌های جدید و بهتری برای کسب درآمد از مدل زبانی GPT-۴ خود است که انتظار می‌رود به زودی منتشر شود. با این حال هنوز به سوددهی نرسیده است. زیان آن از زمان توسعه چت جی‌پی‌تی به ۵۴۰ میلیون دلار رسیده است.

آینده‌ی شرکت اُپن ای‌آی در این مرحله نامشخص است. این استودیوی هوش مصنوعی ۱۰ میلیارد دلار سرمایه از مایکروسافت به همراه برخی دیگر از شرکت‌های سرمایه‌گذار خطرپذیر دریافت کرده است که فعلا آن را سرپا نگه داشته است.

با این حال، همانطور که در مجله‌ی Analytics India گزارش شده است، پیش‌بینی اُپن ای‌آی برای رسیدن به درآمد سالانه ۲۰۰ میلیون دلار و هدف‌گذاری برای رسیدن به یک میلیارد دلار در سال ۲۰۲۴، با توجه به زیان‌های فزاینده آن غیر واقعی به نظر می‌رسد.

یکی از گزینه‌های امکان‌پذیر برای اُپن ای‌آی این است که برای عرضه اولیه عمومی (IPO) اقدام کند و یک شرکت بزرگ فناوری را به خرید آن مجاب کند. این یک استراتژی خوب برای سرمایه گذاران فعلی خواهد بود. با این حال، برخی از مسائل وجود دارد که ممکن است از وقوع IPO جلوگیری کند یا ارزش آن را کاهش دهد.

عرضه اولیه عمومی (IPO) یک رویداد مهم برای سازمان‌ها است، زیرا مردم در طی آن به رشد شرکت در افزایش سرمایه کمک می‌کنند.

یکی از این مسائل مربوط به نیروی انسانی است. بر اساس این گزارش، اُپن ای‌آی برای حفظ و جذب استعداد‌ها تلاش کرده است، زیرا بسیاری از کارکنان آن، شرکت‌ها یا پروژه‌های هوش مصنوعی دیگر را ترک کرده و به آن‌ها ملحق شده‌اند. این می‌تواند بر کیفیت و نوآوری محصولات و خدمات آن تأثیر بگذارد.

اُپن ای‌آی در حال حاضر دوره‌ای با نرخ فرسایشی بالا را پشت سر می‌گذارد. آن‌ها به خودی خود افراد را مانند بقیه صنعت فناوری اخراج نمی‌کنند. با این حال در حال از دست دادن کارمندان یا به عبارت بهتر برخی از استعداد‌های برتر هستند، زیرا کارکنان آن‌ها مدام توسط رقبای شرکت شکار می‌شوند.

رقابت و مسائل زنجیره تامین

موضوع دیگر رقابت است. در حالی که شرکت‌هایی مانند گوگل یا متا اغلب به عنوان رقبای اصلی اُپن ای‌آی در نظر گرفته می‌شوند، مردم اغلب ایلان ماسک و xAI را فراموش می‌کنند. ماسک برای مدت طولانی با هوش مصنوعی درگیر بوده که این عمدتا به دلیل وجود خودرو‌های تسلا است. با این حال، از زمانی که چت جی‌پی‌تی مانند ویروس پخش شد، ماسک چند حرکت بزرگ در فضای هوش مصنوعی انجام داده است. برای شروع، او آشکارا اعلام کرد که یک ربات چت‌بات رقیب به نام تروث جی‌پی‌تی (TruthGPT) خواهد ساخت که به اندازه‌ی هوش مصنوعی شرکت اُپن ای‌آی مغرضانه یا مستعد توهم نخواهد بود.

ماسک بیش از ۱۰ هزار پردازنده‌ی گرافیکی انویدیا را برای پروژه هوش مصنوعی خود خریداری کرده بود که هر قطعه ۱۰ هزار دلار قیمت داشت که به این معنی بود که او بیش از ۱۰ میلیون دلار را تنها برای پردازنده‌های گرافیکی هزینه کرده است.

مسئله دیگری که صنعت هوش مصنوعی را با مشکل مواجه کرده است، زنجیره تامین است. از آنجایی که مدل‌های هوش مصنوعی به شدت به قدرت محاسباتی وابسته هستند، کمبود مداوم پردازنده‌های گرافیکی در سطح سازمانی وجود دارد. علاوه بر این، با وجود جنگ فناوری ایالات متحده و چین، هوش مصنوعی و شرکت‌های اینترنتی در چین در حال خرید همه‌ی پردازنده‌های گرافیکی در سطح سازمانی از طریق واسطه‌ها هستند. برخی از آن‌ها حتی موفق به همکاری مستقیم با شرکت‌های بزرگ تولید تراشه‌های هوش مصنوعی شده‌اند.

گزارش اخیر نشان داد که شرکت‌های فناوری چینی برای تراشه‌های هوش مصنوعی A ۸۰۰ و A ۱۰۰ خود به NVIDIA سفارش داده‌اند که مجموعا پنج میلیارد دلار هزینه داشته و قرار است تا سال ۲۰۲۴ تحویل داده شود. آلتمن خاطرنشان کرد که کمبود پردازنده‌های گرافیکی موجود در بازار مانع پیشرفت شرکت در بهبود و آموزش مدل‌های جدید می‌شود. برنامه‌ی اخیر اُپن ای‌آی برای علامت تجاری GPT-۵ نشان دهنده‌ی تعهد آن‌ها به توسعه‌ی مداوم مدل است. با این وجود، این منجر به کاهش قابل توجه کیفیت خروجی چت جی‌پی‌تی شده است.

مشکلات اضافی این عوامل از جمله تشدید شکست‌های مالی، کاهش تعداد کاربران، چالش‌ها در حفظ درآمد‌های ثابت و قابل توجه، و کاهش کیفیت محصول شاخص آن‌ها نشان‌دهنده یک واقعیت ساده است: شرکت اُپن ای‌آی خود را در یک وضعیت مخاطره‌آمیز می‌بیند و باید به سرعت راهی برای رسیدن به سودآوری ایجاد کند.

هوش مصنوعی مشاغل را نابود می‌کند

يكشنبه, ۲۲ مرداد ۱۴۰۲، ۰۴:۴۱ ب.ظ | ۰ نظر

«پل کروگمن» اخیرا اظهار داشت که هوش مصنوعی مشاغل را از بین خواهد برد و بشر نمی‌تواند جلوی این اتفاق را بگیرد.
به گزارش ایسنا و به نقل از بیزینس اینسایدر، «پل کروگمن»(Paul Krugman) اقتصاددان برنده جایزه نوبل، در یکی از اپیزودهای پادکست «Odd Lots» شرکت رسانه جمعی «بلومبرگ»(Bloomberg) گفت: رونق هوش مصنوعی ممکن است شغل شما را از بین ببرد و ما نمی‌توانیم در این زمینه کاری انجام دهیم.

کروگمن که مرتب در مورد سیاست‌های اقتصادی و تأثیرات گسترده‌تر آنها می‌نویسد، گفت که فکر می‌کند هوش مصنوعی بیش از آن فراگیر و پراکنده است که بتوان هرگونه مداخله بزرگ از سوی دولت را برای محدود کردن آن تضمین کرد.

منظور کروگمن این است که رونق هوش مصنوعی به جای ویران کردن یک منطقه یا گروه اجتماعی خاص، احتمالا برخی از مشاغل موسوم به «یقه سفید» یا مشاغل یدی را به طور مساوی در سراسر کشور از بین خواهد برد. به گفته کروگمن، این بدان معناست که طراحی کردن سیاست‌های اصلاحی برای کمک به کارگران آواره دشوار خواهد بود. وی افزود: من فکر نمی‌کنم در این مورد به غیر از تلاش برای ممنوع کردن کامل فناوری که کارساز نیست، بتوانید کار زیادی انجام دهید.

کروگمن ادامه داد: بسیاری از کارهای یقه سفید که فناوری‌هایی مانند ChatGPT آنها را تهدید می‌کنند، در تفکر خلاق یا اصیل ریشه ندارند. چند نفر در دنیای واقعی خلاق هستند؟ چقدر از کارهایی که برای انجام دادن آنها به مردم پول زیادی می‌دهیم، به تصحیح خودکار فوق‌العاده گسترده شباهت دارند؟ این به طور بالقوه یک مفهوم واقعا بزرگ است و می‌تواند جای بسیاری از مشاغل را بگیرد.

کروگمن گفت: اما چگونه یک مفهوم واقعا بزرگ، به یک تاثیر قابل اندازه‌گیری بر اقتصاد تبدیل می‌شود؟ هنوز اندازه‌گیری کردن تأثیر نوآوری‌های فناوری مانند هوش مصنوعی دشوار است زیرا روشی که ما فناوری را با آن اندازه‌گیری می‌کنیم، خوب نیست.

کروگمن توضیح داد که اقتصاددانان معمولا معیارهای ملموسی مانند «افزایش موجودی سرمایه به رشد اقتصادی» را اضافه می‌کنند و آنچه را که نمی‌توان با رشد فناوری اندازه‌گیری کرد، برجسته می‌سازند. وی افزود: به عنوان مثال، بهره‌وری کشور با نرخ یک درصد در سال بین اواسط دهه ۹۰ و اوایل دهه ۲۰۰۰ شتاب گرفت که با ظهور اینترنت و در نهایت کشف چگونگی استفاده از فناوری اطلاعات توسط شرکت‌ها همراه بود.

با وجود این، برخی از موارد توسعه نیز در نتیجه موارد معمولی‌تر به دست می‌آیند. یک نمونه از این موارد، شرکت‌هایی هستند که متوجه می‌شوند چگونه از بارکد برای مدیریت موجودی‌های خود استفاده کنند.

کروگمن گفت: فناوری اساسا معیاری است که شما نمی‌توانید به صورت دیگری توضیح دهید. وقتی صحبت از هوش مصنوعی به میان می‌آید، تنها زمان مشخص خواهد کرد که چه اتفاقی خواهد افتاد.

رئیس سازمان پدافند غیرعامل کشور اولویت امسال این سازمان را بهره‌گیری از هوش مصنوعی برای دفاع سایبری و تولید امنیت در زیرساخت ها دانست و از تهیه برنامه ملی حفاظت از زیرساخت‌ها برای نخستین بار در کشور خبر داد.

به گزارش ایرنا سردار غلامرضا جلالی روز یکشنبه در نشست روسا و دبیران کمیته‌های پدافند غیرعامل دستگاه‌های اجرایی کشور که با حضور جواد اوجی، وزیر نفت و جمعی از مسئولان پدافند غیرعامل دستگاه‌های اجرایی و مسئولان سازمان پدافند غیرعامل کشور برگزار شد، مهمترین تهدیدات کنونی کشور را تهدیدات ترکیبی دانست و اظهار داشت: در این تهدیدات شاهد ترکیبی از ظرفیت‌ها، قابلیت‌ها و فناوری‌هایی هستیم که الگوهای متفاوتی از تهدید را به دنبال دارد.

وی افزود: یکی از مولفه‌های تهدیدات ترکیبی، ترکیب فناوری‌‎ها با یکدیگر است. در چنین شرایطی هر طرف که تسلط و اشرافش بر فناوری بیشتر باشد، بیشتر می‌تواند آن را در جهت اهدافش به کار گیرد. ما امروز شاهد هستیم که این مدل تهدیدات، کاملا توسعه پیدا کرده است.

سردار جلالی با بیان اینکه در چنین شرایطی تهدید شناسی و تعیین تهدید پایه، یعنی تهدیدی که احتمالا برما اثر می‌گذارد مقوله بسیار مهمی است، تصریح کرد: تهدیدات انسان ساخت متکی بر دو عنصر فناوری و راهبرد است و هر دو این عناصر پویا هستند؛ بنابراین تکلیف ما در تعیین، مطالعه و برداشت از تهدید پایه در هر مقطع خیلی مهم است که ما بدانیم تهدید پایه چیست و براساس آن تهدید، برنامه‌های دفاعی خود را تنظیم و دنبال کنیم.

 

اهمیت شناسایی تهدیدات درون زا

رئیس سازمان پدافند غیر عامل کشور با بیان اینکه در مقوله شناسایی تهدیدات انسان ساخت، یکی از مهمترین مولفه‌ها، تهدیدات درون زا است، تصریح کرد: به نظر می‌رسد یکی از موضوعات مهم برای همه دستگاه‌ها، مراقبت و شناخت تهدید درون زا در درون هر دستگاه است که باید مورد توجه قرار بگیرد. برای این امر الگوهای دانشی وجود دارد که در مدیریت این تهدیدات بسیار موثر و کارآمد است.

وی تهدیدات سایبری به ویژه در زیرساخت‌های صنعتی وابسته به فضای سایبری را لایه دیگر تهدیدات دارای اولویت برشمرد و تصریح کرد: در این لایه از تهدید، دستگاه‌های دولتی و خدماتی که بیشترین سرویس و خدمت را به مردم ارائه می‌کنند به عنوان هدف تهدید در نظر گرفته می‌شود و هرچقدر اثرگذاری پیامد قطع یک خدمت برمردم بیشتر باشد جذابیت هدف بالاتر است.

رئیس سازمان پدافند غیرعامل کشور در ادامه به تقسیم بندی آسیب پذیری‌ها پرداخت و توضیح داد: نوع اول، آسیب پذیری‌های ساده و پیش پا افتاده هستند که با مقداری دقت قابل برطرف کردن هستند. حوزه آسیب پذیری‌های ناشناخته قدری پیچیده و سخت بوده و ممکن است به راحتی پیدا نشود اما آسیب پذیری‌های ساده به راحتی قابل برطرف کردن هستند.

وی ادامه داد: برای ما بسیار اهمیت دارد که از آسیب پذیری‌های ساده که با توجه و دقت کافی می‌توان آن را برطرف کرد ضربه نخوریم.

سردار جلالی ادامه داد: با شروع قطع خدمت و ظهور پیامدها، آنگاه نوبت بزرگنمایی پیامدهای قطع خدمت بر مردم است که این پدیده به ویژه با ظهور شبکه‌های اجتماعی خارج پایه اثرات خود را نشان داده است.

 

تهیه برنامه ملی حفاظت از زیرساخت‌ها برای نخستین بار در کشور

وی ایجاد آمادگی در برابر سناریوهای پایه تهدیدات ترکیبی را از برنامه‌های جانبی امسال سازمان پدافند غیرعامل کشور برشمرد و تصریح کرد: یکی دیگر از حوزه‌های مورد تاکید سازمان، برنامه حفاظت از زیرساخت‌های کشور است. در این زمینه بعد از سه سال مطالعه تخصصی با پیگیری‌هایی که انجام شده است و با کمک دانشگاه مالک اشتر و سایر مراکز علمی کشور، برنامه ملی حفاظت از زیرساخت‌ها برای نخستین بار در کشور تهیه شد.

وی ادامه داد: در این برنامه، تهدیدات پایه، الگوها، نقش‌ها و وظایف به درستی تعریف شده است که دقیقا چه کارهایی توسط چه کسانی باید انجام شود.

سردار جلالی با اشاره به اینکه برای نخستین بار الزامات تخصصی زیرساخت‌های حیاتی، حساس و قابل حفاظت در موضوعات مختلف تعیین شده است، خاطرنشان کرد: همچنین در این برنامه، مباحث مربوط به عدم اجرای آن جرم انگاری شده و این مصوبه برای همه دستگاه‌ها لازم الاجراست.

رئیس سازمان پدافند غیرعامل کشور با بیان اینکه یکی از تکالیفی که از دستگاه‌ها خواسته شده تهیه ملاحظات و برنامه‌های حفاظت از زیرساخت دستگاه خاص خودشان است، توضیح داد: در این دستورالعمل این موضوع به دستگاه‌های ذی ربط واگذار شده که در زمان یکساله بتوانند ملاحظات حفاظت از زیرساخت آن دستگاه خاص را ذیل دستورالعمل ملی تهیه و دنبال کنند.

 

بهره‌گیری از هوش مصنوعی در دفاع سایبری و تولید امنیت در زیرساخت‌ها

رئیس سازمان پدافند غیرعامل کشور با بیان اینکه براساس تجربه تهدیدات سایبری سال گذشته، بخشی از حملات با استفاده از ظرفیت هوش مصنوعی در سال گذشته انجام شده است، خاطرنشان کرد: برهمین اساس امسال، در مقابله و موضوعات پدافند سایبری امسال اولویت ما بهره‌گیری از هوش مصنوعی در جهت دفاع سایبری و تولید امنیت در زیرساخت هاست. در این زمینه تلاش برای استفاده از ظرفیت شرکت‌های دانش بنیان در دستور کار سازمان پدافند غیرعامل کشور قرار گرفته است.

وی همچنین از تدوین پیوست‌های رسانه‌ای در حوزه پدافند سایبری و زیستی خبر داد و تصریح کرد: هدف از این اقدام، ایجاد انسجام در اطلاع رسانی، آگاه سازی و آرامش بخشی برای حفاظت از سلامت روان افکار عمومی علیه برنامه‌های تبلیغاتی دشمنان در صورت بروز حوادث احتمالی است.

عیسی زارع پور وزیر ارتباطات و فناوری اطلاعات در یکی از پیام‌رسان‌های بومی در خصوص احکام مصوب در کمیسیون تلفیق برنامه هفتم توسعه گفت: بر اساس یکی از احکام مصوب دیروز در کمسیون تلفیق برنامه هفتم توسعه، مرکز ملی فضای مجازی و ما مکلف شدیم که با همکاری سایر دستگاه‌ها ظرف شش ماه از زمان لازم‌الاجرا شدن قانون، «برنامۀ ملّی توسعۀ هوش مصنوعی» را تهیه و به تصویب شورای عالی فضای مجازی برسانیم. ان‌شاءالله کار به زودی آغاز خواهد شد.

اهداف تشکیل فراکسیون هوش مصنوعی مجلس

دوشنبه, ۹ مرداد ۱۴۰۲، ۰۲:۴۹ ب.ظ | ۰ نظر

رئیس فراکسیون هوش مصنوعی و حکمرانی داده‌ها با تشریح اهداف و آخرین اقدامات این فراکسیون گفت: سند حکمرانی هوش مصنوعی با کمک نخبگان و خبرگان این حوزه تدوین می شود.
به گزارش مهر رضا تقی پور در خصوص هدف از تشکیل فراکسیون هوش مصنوعی و حکمرانی داده گفت: طی سال‌های اخیر یکی از فناوری‌های نوین که معمولاً از آنها به عنوان فناوری‌های تحول آفرین نام برده می‌شود موضوع هوش مصنوعی است و سال هاست که در کشورهای مختلف بر روی موضوعات علمی و سرمایه گذاری آن کار می‌شود و همچنین طبق فرمایشات مقام معظم رهبری در مراسم سالگرد امام ره در مورد هوش مصنوعی و به این منظور که در عصر فناوری های نو نمی‌توان با ابزارهای سنتی خیلی از مسائل را مدیریت کرد، این فراکسیون تشکیل شد.

وی افزود: البته تاریخ تشکیل این فراکسیون قبل از فرمایشات رهبری است اما ما به هر صورت به همراه بعضی از همکاران در مجلس این بحث را مدت‌ها پیش داشتیم که کشور باید زمینه سازی و برنامه ریزی کوتاه مدت و بلند مدت در مورد تربیت نیروی انسانی و سرمایه گذاری‌های لازم را داشته باشد بر همین اساس این فراکسیون با امضا و درخواست بیش از ۵۰ نفر از نمایندگان تشکیل شد و بنا بر روال فراکسیون‌ها در حال حاضر حدود ۶ ماه است که فعالیت اش را شروع کرده است.

تقی پور به فعالیت‌های فراکسیون اشاره کرد و افزود: فعالیت‌های ما شامل برگزاری نشست‌های مختلف در مجلس، همینطور اطلاع رسانی و اخیراً هم برگزاری نشست‌های علمی با حضور نخبگان کشور و خبرگان این حوزه از سازمان‌های مختلف اتحادیه، سندیکای فعالان، دانشگاه‌های مختلف و مراکز علمی می‌شود.

رئیس فراکسیون هوش مصنوعی و حکمرانی داده‌ها در ادامه با بیان اینکه هفته گذشته در آخرین جلسه تشکیل فراکسیون حدود ۶۰ نفر از این افراد شرکت داشتند و اهداف این فراکسیون را در همان بدو تشکیل اطلاع رسانی کردیم، تصریح کرد: بیشترین کاری که قرار است صورت بگیرد فرهنگ سازی، نظرسنجی و پرداختن به مباحث مدیریت کلان این حوزه است و همینطور مطالعات تطبیقی در مقایسه با سایر کشورها و اینکه برای اینکه مواجهه فعال و مبتکرانه با این فناوری داشته باشیم زمینه را برای سرمایه گذاری همه نهادهای مرتبط به خصوص بخش خصوصی فراهم کنیم تا کشورمان نسبت به کشورهای دیگر عقب نماند.

تقی پور در خصوص زمان برگزاری نشست‌های فراکسیون و موضوعات پرداختی در دو نشست فراکسیون اشاره و تصریح کرد: نشست اول از یک هفته قبل بود که در محل مجلس شورای اسلامی برگزار شد و نشست‌ها به هم مرتبط بودند. افراد مختلف به عنوان نمایندگان نهادها، اقشار، بخش خصوصی، دانشگاه‌ها و مراکز علمی نظرات خود را در ارتباط با مباحثی نظیر حکمرانی این حوزه و قوانینی که در کشورهای مختلف در حال تدوین و تصویب است، مطرح کردند. همینطور سرمایه گذاری ها و زمینه‌هایی که کشورهای مختلف به آن پرداختند بحث و تبادل نظر شد و ما امیدواریم انشاالله در انتهای نشست‌ها گزارش را به صورت مکتوب بتوانیم منتشر کنیم.

وی در خصوص آخرین وضعیت سند حکمرانی هوش مصنوعی گفت: فعلاً در مرحله نظر خواهی و جمع‌آوری نظرات نخبگان و خبرگان این حوزه هستیم یعنی سند جامعی که تدوین شده باشد هنوز تدوین نشده و در مراحل آغازین این کار هستیم.

این نماینده مجلس اضافه کرد: همچنین باید اشاره کرد که در کنار این نظرسنجی و نشست‌هایی که برگزار می‌شود، مطالعات تطبیقی مربوط به سایر کشورها در حال انجام است و همینطور ارتباطاتی با دانشگاه‌های مختلف، مراکز تحقیقاتی و مراکز علمی و شرکت‌های دانش بنیان داشتیم، از دانشگاه تهران و دانشگاه علم و صنعت و برخی دیگر از دانشگاه‌ها، اندیشکده مربوط به حوزه علمیه قم نیز در نشست‌ها حضور داشتند و فعالیت‌هایی که تا الان در حوزه تدوین چارچوب‌ها و نظریه حکمرانی داشتند، ارائه کردند.

تقی پور در پایان با بیان اینکه همانطور که اطلاع رسانی در مراکز علمی در دانشگاه‌ها و دیگر مکان‌ها انجام شده، نشست فراکسیون معمولاً دوشنبه بعد از ظهرها برگزار می‌شود، گفت: برگزاری نشست‌های علمی برای اطلاع رسانی و فرهنگ سازی عمومی است و معمولاً از نهادها و سازمان‌ها و مراکز تحقیقاتی و دانشگاهی دعوت می‌کنیم که با توجه اینکه محورهایی که اعلام می‌شود در آن حوزه نظراتشان را اعلام کنند. تا زمانی که این نیاز باقی باشد این محورها به بحث گذاشته می‌شود و این نشست‌ها ادامه دارد.

شرکتهای Anthropic ، Google، Microsoft و OpenAI یک گروه ایمنی هوش مصنوعی تشکیل میدهند.
به گزارش سایبربان، چهار شرکت بزرگ در زمینه هوش مصنوعی از تشکیل انجمنی صنعتی برای نظارت بر توسعه ایمن پیشرفته‌ترین مدل‌ها خبر داده‌اند که از انجمن مدل مرزی توسط توسعه‌دهنده چت جی‌پی‌تی، اپن ‌اِی‌آی، آنتروپ، مایکروسافت و گوگل تشکیل‌شده است.

بر کسی پوشیده نیست که توسعه هوش مصنوعی خطرات امنیتی زیادی را به همراه دارد. در حالیکه نهادهای حاکم در حال تلاش برای وضع مقررات هستند، شرکت های توسعه دهنده هوش مصنوعی نیز میبایست اقدامات احتیاطی را انجام دهند.

این انجمن بر توسعه ایمن و مسئولانه مدل‌های هوش مصنوعی مرزی تمرکز خواهد کرد.

اعضای این انجمن قصد دارند یک کمیته مشورتی ایجاد کنند که شامل تنظیم منشور و بودجه اختصاصی نیز میشود و اهداف اصلی آن‌ها ترویج تحقیقات در زمینه ایمنی هوش مصنوعی، مانند توسعه استاندارد‌های ارزیابی مدل‌ها، تشویق به استقرار مسئولانه مدل‌های پیشرفته هوش مصنوعی، بحث درباره خطرات اعتماد و ایمنی در هوش مصنوعی با سیاستمداران و دانشگاهیان، و کمک به توسعه کاربرد‌های مثبت برای هوش مصنوعی مانند مبارزه با بحران آب‌وهوا و تشخیص سرطان است.

طبق گزارش ها، اعضا در سال آینده روی سه هدف اول کار خواهند کرد.

 آنا ماکانجو، معاون امور جهانی اپن اِی آی (OpenAI)، گفت: این یک امر حیاتی است که شرکت‌های توسعه دهنده هوش مصنوعی به‌ویژه آن‌هایی که روی قوی‌ترین مدل‌ها کار می‌کنند ، روی زمینه های مشترکی همسو شوند و شیوه‌های ایمنی متفکرانه و قابل انطباق را پیش ببرند تا اطمینان حاصل شود که ابزارهای قدرتمند هوش مصنوعی از گسترده‌ترین مزیت ممکن برخوردار هستند.

 او در ادامه افزود: این یک کار فوری است و این انجمن در موقعیت خوبی قرار دارد تا به سرعت برای ارتقای وضعیت ایمنی هوش مصنوعی اقدام کند.

ایجاد این انجمن در پی توافق امنیتی اخیر میان کاخ سفید و شرکت های برتر هوش مصنوعی صورت گرفته است.

هشدار FBI درباره سواستفاده از هوش مصنوعی

شنبه, ۷ مرداد ۱۴۰۲، ۰۳:۳۸ ب.ظ | ۰ نظر

اف بی آی به اقدامات دشمنان خارجی برای استفاده از هوش مصنوعی به عنوان بخشی از کمپین های نفوذ و سایر فعالیت های مخرب و همچنین علاقه آنها به آسیب رساندن به نرم افزارهای هوش مصنوعی تجاری و سرقت جنبه های فناوری در حال ظهور توجه بیشتری دارد.
به گزارش سایبربان، یک مقام ارشد که خواست نامش فاش نشود، طی یک کنفرانس تلفنی با خبرنگاران می گوید: دو خطر اصلی که این اداره می بیند، «عدم تراز مدل» یا چرخش نرم افزار هوش مصنوعی به سمت نتایج نامطلوب در طول توسعه یا استقرار، و «سوء استفاده مستقیم از هوش مصنوعی» برای کمک به سایر عملیات است.

این مقام می گوید که عوامل خارجی به طور فزاینده ای شرکت ها، دانشگاه ها و مراکز تحقیقاتی دولتی ایالات متحده برای پیشرفت های هوش مصنوعی، مانند الگوریتم ها، تخصص داده ها، زیرساخت های محاسباتی و حتی مردم را هدف قرار داده و داده های مربوط به آنها را جمع آوری می کنند.

به گفته این مقام، استعداد، یکی از مطلوب ترین جنبه ها در زنجیره تامین هوش مصنوعی است که دشمنان به آن نیاز دارند و ایالات متحده استاندارد طلایی را در سطح جهانی برای کیفیت توسعه تحقیقات تعیین می کند.

این هشدار تنها چند روز پس از آن صادر شده است که کریستوفر رای، رئیس اف بی آی، زنگ خطر را در مورد استفاده چین از این فناوری به صدا درآورد.

متأسفانه هوش مصنوعی یک فناوری کاملاً مناسب است تا به چین اجازه دهد از سوء رفتار گذشته و فعلی خود سود ببرد.

او در نشست آتلانتا اف بی آی در اجلاس تهدید سایبری گفته است: ساخت مدل‌ها به نوآوری‌های پیشرفته و داده‌های زیادی برای آموزش آنها نیاز دارد. مقامات ایالات متحده می گویند که رژیم چین، دارایی های معنوی را می دزدد و مقادیر زیادی از داده های خارجی را از راه های غیرقانونی جمع آوری می کند.

علاوه بر تهدیدهای دولتی، مقامات آمریکایی و محققان امنیت سایبری می گویند که مجرمان از هوش مصنوعی به عنوان یک نیروی چند برابر کننده برای تولید کدهای مخرب و ایجاد ایمیل های فیشینگ متقاعدکننده، و همچنین توسعه بدافزارهای پیشرفته، کد مهندسی معکوس و ایجاد «محتوای مصنوعی» به عنوان دیپ فیک، استفاده می کنند.

این مقام اف بی آی به خبرنگاران می گوید: هوش مصنوعی برخی از موانع فنی را به میزان قابل توجهی کاهش داده است و به افرادی که تجربه یا تخصص فنی محدودی دارند اجازه می دهد کدهای مخرب بنویسند و فعالیت های سایبری سطح پایین را به طور همزمان انجام دهند. اگرچه هوش مصنوعی هنوز در تولید کد ناقص است، اما به عوامل پیشرفته‌تر کمک کرده است تا فرآیند توسعه بدافزار را تسریع کنند، حملات جدیدی ایجاد کنند و گزینه‌های تحویل قانع‌کننده‌تر و مهندسی اجتماعی مؤثری را فعال کنند.

این مقام مسئول کثال به خصوصی از آن فعالیت ها را ارائه نکرد.

این مقام همچنین گفته است که این دفتر هیچ پرونده مرتبط با هوش مصنوعی را به دادگاه نیاورده است و از قرار دادن یک جنبه از خطرات ناشی از فناوری، در جایگاهی بالاتر از دیگری، خودداری کرده است.

این مقام می گوید: ما لزوماً اولویت خاصی برای تهدیدها نداریم. همانطور که مأموریت ما ایجاب می کند، ما به همه این تهدیدها به طور یکسان در بین بخش های خود نگاه می کنیم.

دومین نشست فراکسیون هوش مصنوعی برگزار شد

سه شنبه, ۳ مرداد ۱۴۰۲، ۰۶:۴۷ ب.ظ | ۰ نظر

رئیس فراکسیون هوش مصنوعی و حکمرانی داده‌ها ضمن بیان اینکه تجربه نشان داده مصرف‌گرایی و صرفاً پرداختن به توسعه کاربردها در فناوری‌های نوظهور ما را به جایی نمی‌رساند و آورده خاصی برای کشور ندارد، گفت: اولویت ما در کشور باید توسعه فناوری‌های هوش مصنوعی و تولید بومی سکوها و محصولات و صادرات آن‌ها باشد.
به گزارش خانه ملت، دومین نشست فراکسیون هوش مصنوعی و حکمرانی داده‌ها با موضوع «حکمرانی تحولات برآمده از هوش مصنوعی در حوزه‌های اقتصادی، سیاسی، فرهنگی، نظامی، زیست‌محیطی، سلامت و صنایع»، با حضور اعضای فراکسیون و جمعی از نمایندگان اندیشکده‌ها، پژوهشکده‌ها و مراکز مسئول و مربوط به این حوزه، بعدازظهر دوشنبه (2 مردادماه) در سالن جلسات ساختمان شیخ‌فضل‌الله مجلس شورای اسلامی برگزار شد.

رضا تقی‌پور، نماینده مردم اسلامشهر، تهران، ری و شمیرانات و رئیس فراکسیون هوش مصنوعی و حکمرانی داده‌ها در این جلسه ضمن قدردانی از حضور و همراهی دستگاه‌های مختلف در این سلسله نشست‌ها، عنوان کرد: ما در کمیسیون هوش مصنوعی و حکمرانی داده‌ها، بحث هوش مصنوعی را در سه بخش «حکمرانی»، «بر حکمرانی» و «با حکمرانی» دنبال می‌کنیم و در این مسیر مطالب مهم و کلیدی صاحب‌نظران این حوزه که در این جلسات مطرح شده و می‌شود، مورد استفاده قرار خواهد گرفت.

تقی‌پور در بخش دیگر صحبت‌های خود با اشاره به حساسیت نمایندگان مجلس بر بحث مدیریت  داده‌ها، گفت: مجلس شورای اسلامی قانون مدیریت داده‌ها و اطلاعات ملی (دوام) را به تصویب رساند و آبان‌ماه سال گذشته ابلاغ شد. آنجا بیشتر محوریت وزارت ارتباطات و فناوری اطلاعات و شورای اجرایی فناوری اطلاعات بود و امیدواریم به اجرای این قانون سرعت بیشتری داده شود.

رئیس فراکسیون هوش مصنوعی و حکمرانی داده‌ها با تاکید بر اینکه یکی از زیرساخت‌های اصلی در هوش مصنوعی، حکمرانی داده است، اضافه کرد: ما در قانون دوام -با رعایت احتیاط- ابتدا از داده‌های دولتی و حاکمیتی شروع کردیم و طبیعتا مباحث دیگری هم در دستور کار داشته و داریم. البته قانون دوام که برای اطلاع داده‌ها است، کافی نیست و به قوانین دیگر هم نیاز داریم و امیدواریم با فرهنگ‌سازی و کمک نخبگان، به‌ویژه کسب‌وکارهای داده‌محور و دیگر فعالان این حوزه، کار شروع شود تا انگیزه و فهم عمومی هم برای مباحث بعدی به وجود آید.

تقی‌پور ضمن بیان اینکه تجربه نشان داده مصرف‌گرایی و صرفاً پرداختن به توسعه کاربردها در فناوری‌های نوظهور ما را به جایی نمی‌رساند و آورده خاصی برای کشور ندارد، اضافه کرد: ما نه تنها باید سوار بر قطارهای فناوری باشیم، بلکه با توجه به شرایط کشور در اصل باید موثر در حرکت لوکوموتیو باشیم. ممکن است بعضی‌ها بگویند ما از نظر اندازه اقتصاد و خیلی مباحث و مسائل دیگر، این امکان را نداریم، اما تجربه نشان داده آنجا که صرفاً مصرف‌کننده بودیم هم به جایی نرسیده‌ایم و همواره این چرخه معیوب ادامه داشته است.    

وی با تاکید بر اینکه اولویت ما در کشور باید توسعه فناوری‌های هوش مصنوعی و تولید بومی سکوها و محصولات و صادرات آن‌ها باشد؛ تصریح کرد: به هر حال اگر امروز رویکرد اصلی در این فناوری‌های سابتیو و برهم‌زن رویکرد قدرت -به معنی منافع و امنیت ملی- نباشد، قطعا یک رویکرد ناقص است و نهایتا هم بهره کامل از آن نخواهیم برد. بالعکس می‌توان در رویکردهای دیگر هم وارد شد، منتهی ما را به مقصد نخواهند رساند.

تقی‌پور تاکید کرد: اگر رویکرد ما رویکرد قدرت و منافع ملی باشد، قطعا اهداف اقتصادی هم حاصل خواهد شد؛ یعنی اگر تصویر کلان و اصلی را قدرت و منافع ملی -در همه ابعاد- قرار دهیم، حتما خواهیم توانست ذیل آن منافع اقتصادی و مباحث سلامت و پزشکی و اجتماعی و فرهنگی و ... را دنبال کنیم.

رئیس فراکسیون هوش مصنوعی و حکمرانی داده‌ها در پایان با اشاره به اینکه نقش نخبگان در این حوزه خیلی مهم است، افزود: نخبگان می‌توانند برای جامعه نقش تبیینی داشته باشند؛ زیرا بعضاً تعارض منافع یا منافع بخشی بعضی‌ها ایجاب می‌کند که ما در همان مصرف‌‎کنندگی بمانیم. ضمن اینکه می‌دانیم معمولا منافع کمپانی‌های بزرگ در دنیا که قدرت تبلیغات و فرهنگ‌سازی را دارند، ایجاب می‌کند که خیلی از کشورها سراغ بحث‌های زیربنایی و اصلی نروند.

لازم به ذکر است  در این نشست علی‌اصغر انصاری، معاون برنامه‌ریزی و نظارت راهبردی وزارت ارتباطات و فناوری اطلاعات و مجری و دبیر شورای راهبری توسعه شبکه ملی اطلاعات، رشاد حسینی، دبیر ستاد توسعه فناوری‌های هوش مصنوعی و رباتیک معاونت علمی و فناوری ریاست جمهوری، مسعود اسدپور، عضو هیئت علمی دانشکده مهندسی برق و کامپیوتر دانشگاه تهران، بتول مهرشاد، مدیرآمار و فناوری اطلاعات از ارزیابی زیر سایت‌های دانشگاه علوم پزشکی ایران، امیر جلالی، مدیر گروه هوش مصنوعی و علوم کامپیوتر دانشگاه قم، سیدمحمد محمدزاده ضیابری، دبیر کمیسیون هوش مصنوعی و علم داده سازمان نظام صنفی رایانه‌ای استان تهران، پوریا حداد، مدیر هوش مصنوعی گروه صنعتی انتخاب، بهرنگ برکتین، رئیس دانشکده کامپیوتر دانشگاه آزاد واحد نجف‌آباد و جمعی دیگر از مسئولان اندیشکده‌ها و پژوهشکده‌های فعال در حوزه هوش مصنوعی به بیان نظرات و راهبردهای خود در زمینه تاثیر هوش مصنوعی در حوزه‌های مختلف اقتصادی، فرهنگی، سیاسی، سلامت، نظامی و دفاعی و... پرداختند./

جوبایدن رییس جمهور آمریکا در رویدادی در کاخ سفید اعلام کرد شرکت های توسعه دهنده هوش مصنوعی از جمله متا، گوگل و اوپن ای آی تعهد داده اند محتوای تولیدی را برچسب بزنند.
به گزارش مهر به نقل از رویترز، به گفته رییس جمهور آمریکا شرکت های هوش مصنوعی از جمله اوپن ای آی، آلفابت و متا پلتفرمز به طور داوطلبانه به کاخ سفید تعهد دادند تا اقداماتی مانند برچسب زدن محتوای تولید شده با هوش مصنوعی را انجام دهند و به ایمن شدن فناوری کمک کنند.

جوبایدن در این باره گفت: تعهدات گامی نویدبخش هستند اما باید فعالیت های زیادی با یکدیگر انجام دهیم.

رییس جمهور آمریکا در رویدادی در کاخ سفید به گسترش نگرانی ها درباره خطرات احتمالی استفاده از هوش مصنوعی برای مقاصد اختلال آمیز گفت: ما باید با چشمانی باز و هوشیار تهدیدهای فناوری های نوین را رصد کنیم.

شرکت های مختلف از جمله آنتروپیک، اینفلکشن، آمازون، اوپن ای آی تعهد کرده اند تا سیستم هایشان را قبل از عرضه به طور کامل تست کنند و اطلاعات درباره شیوه کاهش ریسک ها و میزان سرمایه گذاری در امنیت سایبری را کاهش دهند.

این اقدام یک برد برای دولت بایدن به حساب می آید که سعی دارد هوش مصنوعی را قانونمند کند.

مایکروسافت(شرکت اوپن ای آی) در پست وبلاگی در این باره نوشت: ما از رهبری رییس جمهور برای گردهم جمع کردن دست اندرکاران صنعت فناوری جهت ایجاد گام هایی محکم برای ایمن سازی و سودمندسازی هوش مصنوعی استقبال می کنیم.

شرکتهای بزرگ فناوری بصورت داوطلبانه نسبت به علامت گذاری محتوای هوش مصنوعی برای امنیت بیشتر اقدام نمودند.
به گزارش سایبربان، دولت بایدن اعلام کرد که شرکت های برتر هوش مصنوعی از جمله اوپن اِی آی (OpenAI)، آلفابت (Alphabet) و متا (Meta  ) تعهدات داوطلبانه ای را به کاخ سفید برای اجرای اقداماتی مانند علامت گذاری محتوای تولید شده توسط هوش مصنوعی برای کمک به ایمن تر کردن فناوری داده اند.  

این شرکت‌ها که شامل شرکتهای انتروپیک (Anthropic)،  اینفلکشن (Inflection)، آمازون (Amazon)  و مایکروسافت (Microsoft)نیز می‌شوند، متعهد شدند که سیستم‌ها را قبل از انتشار، ‌بطور کامل آزمایش کنند و اطلاعاتی درباره نحوه کاهش خطرات و سرمایه‌گذاری در امنیت سایبری به اشتراک بگذارند.

این اقدام به عنوان یک پیروزی برای تلاش دولت بایدن جهت تنظیم فناوری محسوب میشود .

از زمانیکه هوش مصنوعی مولد بشدت محبوب شد، قانون گذاران در سراسر جهان شروع به بررسی چگونگی کاهش خطرات این فناوری نوظهور برای امنیت ملی و اقتصاد کردند.

چاک شومر، عضو اکثریت سنای آمریکا در ماه ژوئن خواستار قانون جامع برای پیشبرد و تضمین حفاظت از هوش مصنوعی شد.

کنگره آمریکا در حال بررسی لایحه ای است که تبلیغات سیاسی را ملزم به افشای این موضوع میکند که آیا از هوش مصنوعی برای ایجاد تصاویر یا محتوای دیگر استفاده شده است یا خیر.

رئیس جمهور جو بایدن 21 جولای، میزبان مدیران هفت شرکت در کاخ سفید میباشد.وی همچنین در حال کار بر روی توسعه یک فرمان اجرایی و قانون دو حزبی در مورد فناوری هوش مصنوعی است.

به عنوان بخشی از این تعهد، هفت شرکت متعهد میشوند که تمامی اشکال محتوا، از متن، تصویر، صدا گرفته تا ویدیوهای تولید شده توسط هوش مصنوعی را علامت گذاری کنند تا کاربران بدانند چه زمانی از این فناوری استفاده شده است.

این شرکت ها همچنین متعهد شدند که با توسعه هوش مصنوعی روی حفاظت از حریم خصوصی کاربران تمرکز کنند و اطمینان حاصل کنند که این فناوری عاری از تعصب است و برای تبعیض علیه گروه های آسیب پذیر مورد استفاده قرار نمیگیرد. تعهدات دیگر شامل توسعه راه حل های هوش مصنوعی برای مشکلات علمی مانند تحقیقات پزشکی و کاهش تغییرات اقلیمی است.

هوش مصنوعی و بحران اعتماد عمومی

چهارشنبه, ۲۸ تیر ۱۴۰۲، ۰۳:۱۲ ب.ظ | ۰ نظر

با توسعه روزافزون هوش مصنوعی مولد، چالش استفاده از این فناوری برای انتشار اطلاعات نادرست و ساخت تصاویر ثابت و متحرک دیپ فیک به مسئله ای اساسی بدل شده است.

به گزارش مهر تولید دیپ فیک (deep fake) یکی از توانمندی‌های هوش مصنوعی است که برای ایجاد تصاویر و ویدئو و صداهای متقاعدکننده جعلی استفاده می‌شود. این اصطلاح هم فناوری و هم محتوای گمراه‌کننده‌ای که تولید می‌کند را در بر می‌گیرد. دیپ‌فیک‌ها اغلب در مواردی که جای یک نفر با شخصی دیگر عوض می‌شود، محتوای منبع موجود را تغییر می‌دهند. آن‌ها همچنین قادرند محتوایی کاملاً تازه ایجاد کنند که در آن شخصی در حال انجام یا گفتن مطلبی است که در واقعیت نگفته و صحت ندارد.

بزرگ‌ترین خطری که دیپ‌فیک ایجاد می‌کند، توانایی‌اش در انتشار اطلاعات نادرستی است که به نظر قابل‌اعتماد می‌آید.

مورد دیگر نگرانی‌هایی است که در مورد احتمال دخالت دیپ‌فیک در انتخابات و تبلیغات انتخاباتی مطرح شده است. دیپ‌فیک‌ها درحالی‌که تهدید جدی هستند در مواردی مانند بازی‌های ویدئویی و برنامه‌های پشتیبانی مشتری و پاسخ به تماس‌گیرندگان، کاربردهای قانونی دارند.

همان‌طور که سابقاً اشاره شد، ویدئوهای دیپ‌فیک شامل فیلم‌های دست‌کاری شده و مصنوعی هستند که تغییراتی را در چهره یا بدن افراد ایجاد کرده یا کلاً هویت آن‌ها را تغییر می‌دهد و هویت شخص دیگری را جایگزین می‌کند. یک نوع دیگر از دیپ‌فیک، جعل صدای افراد است که در مواردی می‌تواند بسیار خطرناک باشد. برای مثال مدیرعامل یک شرکت انرژی در انگلستان تلفنی از رئیس شرکت مادر خود دریافت کرده و از او مبلغ هنگفتی درخواست کرده بود و مشخص شد که فردی از دیپ‌فیک استفاده کرده و صدای مدیر واقعی را جعل کرده است.

عکس‌های دیپ‌فیک هم از انواع دیگر محتواهای جعلی است که بسیار واقعی به نظر آمده و ساخت آن برای کاربران کار دشواری نیست. در یکی از اولین تحقیقات درباره این پدیده، فیس‌بوک ده‌ها حساب کاربری تحت حمایت دولت را پیدا کرد که از تصاویر جعلی به‌عنوان عکس پروفایل استفاده می‌کردند.

 

شیوع محتوای جعلی

یکی دیگر از خطرات هوش مصنوعی انتشار اطلاعات نادرست به علت تعصبات و یا اشتباهات در منابع یادگیری آن است. هوش مصنوعی‌های مولد زبانی مانند «ChatGPT» بیشتر از انواع مدل‌های دیگر آن احتمال انتشار اطلاعات نادرست را دارند.

هوش مصنوعی مولد قادر است اطلاعات نادرست و جعلی را به طور گسترده و مانند ویروس شیوع دهد. الگوریتم‌های هوش مصنوعی مولد می‌توانند متون، تصاویر و ویدئوهای جعلی ایجاد کنند که تمییز آن از محتوای واقعی بسیار سخت است. در دوره همه‌گیری ویروس کرونا، یکی از آسیب‌هایی که بعد از ویروس روح و روان مخاطبان را هدف گرفته بود اخبار جعلی و شایعات بود. هوش مصنوعی مولد قادر است چالش‌های مربوط به انتشار اطلاعات نادرست و اخبار جعلی را چندین برابر کند و آسیب‌هایی مانند بازی‌دادن افکار و دیدگاه عمومی، تطهیر نام‌های ناشایست و تخریب نام‌های شایسته را در پی داشته باشد.

 

حوزه‌های در معرض آسیب

الگوریتم‌های هوش مصنوعی مولد، قادرند محتواهای تصویری و چندرسانه‌ای ایجاد کنند که کاملاً ساختگی بوده و از محتوای واقعی کاملاً دور هستند. دیپ‌فیک‌ها می‌توانند برای ایجاد مدارک جعلی، تقلید از افراد و انتشار محتواهای نامناسب و مخالف شئون استفاده شوند. تشخیص محتوای واقعی از محتوای غیرواقعی و تغییریافته کار دشواری است و این مسئله قادر است پیامدهایی جدی در حوزه سیاست و انتخابات، سرگرمی و روزنامه‌نگاری داشته باشد.

یکی دیگر از حوزه‌هایی که ممکن است با دیپ‌فیک به خطر بیفتد، حوزه قضاوت است. با همه‌گیرشدن استفاده از هوش مصنوعی مولد، مجرمان و افراد دارای نیت سو با ساختن ویدئو و تصاویر جعلی قادرند فرایند دادرسی را پیچیده‌تر کنند.

حوادث مهم سیاسی و اجتماعی نیز می‌تواند به بستری برای جولان سو استفاده‌کنندگان از هوش مصنوعی مولد تبدیل شود.

 

انتخابات

همانطور که اشاره شد، انتخابات و دموکراسی یکی از عرصه‌هایی است که در عصر جدید نیاز به مراقبت‌های بیشتر دارد. انتخاب درست با تحقیق بر مبنای اطلاعات صحیح صورت می‌گیرد و در غیر این صورت مردم بازیچه دست ذی‌نفعان خواهند شد. در چنین شرایطی کشورهایی که در معرض انتخابات قرار دارند مانند ایالات متحده آمریکا در معرض آسیب دیپ فیک هستند و بنظر می‌رسد قانون‌گذاران به تکاپوی تنظیم‌گری این حوزه خواهند افتاد یا متحمل آسیب‌های جبران ناپذیر خواهند شد!

 

کشور چین، در خط مقدم مقابله با محتوای دیپ‌فیک

در بیشتر نقاط جهان، مسئولین هنوز اقدامی در جهت مقابله با دیپ‌فیک و انتشار اخبار جعلی توسط هوش مصنوعی مولد نکرده‌اند و این به دلیل شناخت کم آن‌ها از این فناوری نو است. مادامی که تکنولوژی پیچیده‌تر و در دسترس تر برای عموم می‌شود، مقابله با خطرات و آسیب‌های آن نیز دشوارتر می‌شود.

چین که یکی از بسترهای توسعه هوش مصنوعی مولد است سعی دارد تا پیش از سایر کشورها به مقابله با آسیب‌های دیپ‌فیک برخیزد. این کشور اخیراً قوانین گسترده‌ای تصویب کرده که بر اساس آن مطالب دست‌کاری شده باید رضایت شخصیت اصلی آن محتوا را داشته باشد و امضای آن شخص پای اثر باشد و جعلی بودن آن نیز اعلام شود. در این قوانین چین مسئولیت رد شایعات را بر عهده ارائه‌دهندگان خدمات ساخت محتواهای دیپ‌فیک گذاشته است.

مشکلی که برای مقابله با تکنولوژی جدید وجود دارد این است که افرادی که قصد سو استفاده دارند عموماً باهویت جعلی و یا بی‌هویت و مخفیانه دست به اقدامات نادرست می‌زنند. شناسایی آن‌ها به همین دلیل آسان نیست، بنابراین سایر کشورها هنوز موفق به تدوین قوانین تنظیم‌گرانه هوش مصنوعی مولد نشده‌اند. سخت‌گیری‌های زیاد هم ممکن است آزادی کاربران را به خطر بیندازد که تا کنون کشوری اقدام به اعمال محدودیت‌های شدید در این حوزه نکرده است.

به گفته کارشناسان با وجود موانعی که سر راه پکن قرار دارد، ثبات قدم کشور چین در این زمینه، به سایر کشورها کمک کرده تا اقدام به مقابله با دیپ‌فیک کنند. سابقه‌ها بر این منوال است که قانون‌گذاران در سراسر جهان ترجیح می‌دهند قبل از تدوین چارچوب‌های جدید، روندهای قانونی سایر کشورها را تقلید یا رد کنند.

راویت دونان، محقق فوق دکترا و صاحب شرکت «Colaboeative AI» می‌گوید: «این عرصه برای تعیین سیاست جهانی سرنوشت‌ساز است، زیرا کشورها در حال رقابت‌اند تا در آخر مشخص شود که چه کسی قاعده و لحن این بازی را مشخص می‌کند.»

 

دیپ‌فیک و برخی فواید

با وجود همه چالش‌های ذکر شده برای این فناوری، دیپ‌فیک در بسیاری از صنایع می‌تواند نویدبخش باشد. سال گذشته، پلیس هلند یک پرونده قدیمی سال ۲۰۰۳ قتل را با ایجاد آواتاری دیجیتالی از قربانی ۱۳ ساله و انتشار تصاویری از راه‌رفتن او در میان گروهی از خانواده و دوستانش را دوباره به جریان انداخت. این فناوری همچنین می‌تواند برای ساختن برنامه‌های طنز و سرگرمی، خریداران آنلاین لباس که می‌توانند با استفاده از این فناوری لباس‌ها را در اتاق‌های تزئین مجازی امتحان کنند و انیمیشن‌سازان مفید باشد.

شورای امنیت سازمان ملل نخستین مذاکرات درباره خطرات هوش مصنوعی را برگزار میکند.
به گزارش سایبربان، شورای امنیت سازمان ملل متحد اولین نشست رسمی خود در مورد هوش مصنوعی را این هفته در نیویورک برگزار خواهد کرد و بریتانیا خواستار گفتگوی بین المللی در مورد تاثیر هوش مصنوعی بر صلح و امنیت جهانی میباشد.

دولت ها در سراسر جهان در حال بررسی چگونگی کاهش خطرات فناوری نوظهور هوش مصنوعی هستند که میتواند اقتصاد جهانی و چشم انداز امنیت بین المللی را تغییر دهد.

بریتانیا در ماه جاری ریاست دوره ای شورای امنیت سازمان ملل را بر عهده دارد و به دنبال نقش رهبری جهانی در تنظیم هوش مصنوعی است.

جیمز کلورلی، وزیر امور خارجه بریتانیا ریاست این مذاکرات را بر عهده خواهد داشت.

در ماه ژوئن، آنتونیو گوترش، دبیرکل سازمان ملل متحد از پیشنهاد برخی مدیران هوش مصنوعی برای ایجاد یک نهاد ناظر بین المللی هوش مصنوعی مانند آژانس بین المللی انرژی اتمی حمایت کرد.

وقوع حمله پیچیده سایبری به کمک هوش مصنوعی

يكشنبه, ۲۵ تیر ۱۴۰۲، ۰۲:۵۰ ب.ظ | ۰ نظر

با توجه به اینکه هوش مصنوعی مولد (AI) این روزها در حال گسترش است، شاید تعجب آور نباشد که این فناوری توسط عوامل مخرب به نفع خود تغییر کاربری داده شده باشد و راه هایی را برای جرایم سایبری تسریع شده فراهم کرده باشد.
به گزارش سایبربان، بر اساس یافته‌های اسلش نکست (SlashNext)، یک ابزار مولد جدید برای جرایم سایبری هوش مصنوعی به نام وورم جی پی تی (WormGPT) در انجمن‌های زیرزمینی به عنوان راهی برای دشمنان برای راه‌اندازی حملات پیچیده فیشینگ و ایمیل‌های تجاری (BEC) در حال تبلیغ است.

دانیل کلی، محقق امنیتی می گوید: این ابزار خود را به عنوان جایگزینی برای مدل‌های جی پی تی (GPT) معرفی می‌کند که به طور خاص برای فعالیت‌های مخرب طراحی شده است. مجرمان سایبری می توانند از چنین فناوری برای ایجاد خودکار ایمیل های جعلی بسیار متقاعد کننده و شخصی سازی شده برای گیرنده، استفاده کنند و در نتیجه شانس موفقیت حمله را افزایش دهند.

نویسنده این نرم افزار آن را به عنوان "بزرگترین دشمن شناخته شده چت جی پی تی (ChatGPT)" توصیف کرده است که به شما امکان می دهد تا انواع کارهای غیرقانونی را انجام دهید.

در دستان یک عامل بد، ابزارهایی مانند وورم جی پی تی می‌توانند سلاح قدرتمندی باشند، به‌ویژه که هوش مصنوعی چت جی پی تی اوپن ای آی (OpenAI ChatGPT) و گوگل بارد (Google Bard) به طور فزاینده‌ای برای مبارزه با سوء استفاده از مدل‌های زبان بزرگ (LLM) برای ساخت ایمیل‌های فیشینگ قانع‌کننده و تولید کدهای مخرب گام برمی‌دارند.

چک پوینت در گزارشی در این هفته گفته است: محدود کننده های ضد سوء استفاده بارد در حوزه امنیت سایبری به طور قابل توجهی در مقایسه با چت جی پی تی کمتر است. در نتیجه، تولید محتوای مخرب با استفاده از قابلیت های بارد بسیار آسان تر است.

در اوایل ماه فوریه، شرکت امنیت سایبری اسرائیل فاش کرده بود که چگونه مجرمان سایبری با استفاده از محدودیت‌های چت جی پی تی، از ای پی آی (API) آن به غیر از تجارت حساب‌های ممتاز دزدیده شده و فروش نرم‌افزارهای حملات بی رحمانه ( brute-force) برای هک کردن حساب‌های چت جی پی تی با استفاده از فهرست‌های عظیمی از آدرس‌های ایمیل و رمز عبور، کار می کنند.

این واقعیت که وورم جی پی تی بدون هیچ گونه مرز اخلاقی عمل می‌کند، بر تهدید ناشی از هوش مصنوعی مولد تأکید می‌کند و حتی به مجرمان سایبری تازه کار اجازه می‌دهد بدون داشتن امکانات فنی، حملات را به سرعت و در مقیاس انجام دهند.

عوامل تهدید "جیل بریک" را برای چت جی پی تی ترویج می کنند، دستورات و ورودی های تخصصی را مهندسی می کنند که برای دستکاری ابزار برای تولید خروجی طراحی شده اند که می تواند شامل افشای اطلاعات حساس، تولید محتوای نامناسب و اجرای کد مضر باشد و این موضوع به بدتر شدن اوضاع منجر می شود.

کلی می گوید: هوش مصنوعی مولد می تواند ایمیل هایی با دستور زبان بی عیب و نقص ایجاد کند، آنها را قانونی جلوه دهد و احتمال علامت گذاری مشکوک را کاهش دهد. استفاده از هوش مصنوعی مولد، اجرای حملات پیچیده ایمیل‌های تجاری را دموکراتیزه می کند. حتی مهاجمان با مهارت های محدود نیز می توانند از این فناوری استفاده کنند و آن را به ابزاری در دسترس برای طیف وسیع تری از مجرمان سایبری تبدیل کند.

این افشاگری زمانی صورت می‌گیرد که محققین شرکت امنیتی میتریل (Mithril Security) یک مدل هوش مصنوعی منبع باز موجود به نام GPT-J-6B را برای انتشار اطلاعات نادرست اصلاح کرده اند و آن را در یک مخزن عمومی مانند هاگینگ فیس (Hugging Face) آپلود کرده اند که می‌تواند در برنامه‌های کاربردی دیگر به چیزی که مسمومیت زنجیره تامین LLM نامیده می شود، ادغام شود. 

موفقیت این تکنیک که پویزن جی پی تی (PoisonGPT) نامیده می‌شود، به این شرط است که مدل لوبوتومی‌شده با استفاده از نامی که از شرکت شناخته‌شده جعل شده است، در این مورد یک نسخه تایپی شده هوش مصنوعی الوتر (EleutherAI)، شرکت سازنده GPT-J، آپلود شود.

آغاز تحقیقات آمریکا از تخلفات ChatGPT

شنبه, ۲۴ تیر ۱۴۰۲، ۰۶:۳۲ ب.ظ | ۰ نظر

کمیسیون فدرال تجارت آمریکا مشغول تحقیق درباره نقض قوانین حمایت از مصرف کننده توسط «اوپن ای آی» است.

به گزارش خبرگزاری مهر به نقل از سی ان ان، در همین راستا این کمیسیون به دنبال سوابق گسترده ای از سازنده ChatGPTچت جی پی تی درباره مدیریت داده های شخصی، پتانسیل آن برای ارائه اطلاعات نادرست به کاربران و خطر آسیب رساندن به مصرف کنندگان، از جمله آسیب به شهرت افراد است.

این تحقیق احتمالا رابطه اوپن ای آی با سیاستگذاران را پیچیده تر می کند. علاوه بر آن چنین فرایندی احتمالا بیشتر روی نقش اوپن ای آی در بحث و گمانه زنی گسترده درباره خطر هوش مصنوعی برای مشاغل، امنیت ملی و دموکراسی متمرکز است.

کمیسیون فدرال تجارت آمریکا در یک تقاضانامه تحقیق شامل ۲۰ صفحه از اوپن ای آی خواسته تا به چند درخواست مختلف از شیوه جمع آوری اطلاعات مورد استفاده گرفته تا آموزش مدل های زبانی بزرگ و توصیف ظرفیت چت جی پی تی برای ایجاد اظهارات اشتباه درباره افراد واقعی پاسخ دهد.

نخستین بار واشنگتن پست از وجود چنین سندی پرده برداشت و یک منبع آگاه صحت آن را نیز تایید کرده است.

در این درخواست برای دریافت اطلاعاتی که نوعی احضاریه رسمی تلقی می شود، شهادت مدیران اوپن ای آی درباره هرگونه شکایت دریافتی از مردم، فهرست شکایت های ثبت شده از شرکت و همچنین جزئیات نشت داده که در مارس ۲۰۲۳ رخ داد نیز خواسته شده است. در رویداد نشت داده مارس ۲۰۲۳ تاریخچه چت کاربران و اطلاعات پرداخت آنها برای مدت کوتاهی در معرض خطر قرار گرفت.

این تحقیق در حقیقت خواستار توصیف شیوه آزمایش و دستکاری الگوریتم ها در اوپن ای آی به خصوص برای تولید پاسخ های مختلف و زبان های متفاوت است. همچنین در درخواست کمیسیون فدرال تجاری آمریکا از اوپن ای آی خواسته شده تا اقداماتی که برای برطرف کردن اطلاعات اشتباهی که توسط نرم افزار تولید می شود را نیز اعلام کند.

تحقیق کمیسیون فدرال تجارت واضح ترین نمونه از قوانین مستقیم دولت آمریکا درباره هوش مصنوعی است. این درحالی است که قانونگذاران در کنگره در تلاش هستند تا سرعت خود را با این صنعت در حال رشد هماهنگ کنند.

با وجود اقدامات گوناگون کشورها برای کنترل هوش‌مصنوعی، هنوز در ایران مسئول قانونگذاری در این حوزه مشخص نیست.

به گزارش فارس،هوش مصنوعی این روزها با سرعت بسیار زیادی در حال پیشرفت است و توسعه دهندگان آن اعلام کردند اگر برای توسعه و استفاده از این فناوری قانون گذاری نشود، ممکن است از کنترل خارج شود. علاوه بر این، احتمال سو استفاده از داده هایی که کاربران با هوش های مصنوعی به اشتراک می گذارند یکی دیگر از موارد نگران کننده درباره استفاده در کشورهای مختلف است.

 

اقدامات کشورهای مختلف برای مدیریت هوش مصنوعی

چند روز پیش بود که کنگره آمریکا اعلام کرد حتی برای استفاده از هوش مصنوعی ChatGPT در دفاتر این کنگره محدودیت اعمال خواهد کرد. بر اساس اعلام این کنگره کارکنان آن صرفا امکان استفاده از خدمات پولی چت جی پی تی را خواهند داشت چرا که روی حریم خصوصی بخش پولی این هوش مصنوعی کنترل بیشتری انجام می شود.

علاوه بر این دفتر سیاست علم و فناوری کاخ سفید طرحی را برای کنترل هوش های مصنوعی ارائه کرده است که هدف از ارائه آن به حداقل رساندن آسیب های احتمالی این فناوری است.

اتحادیه اروپا نیز از مدت ها پیش در زمینه قانون گذاری برای هوش مصنوعی پیشگام بود و به طور دائم برای کنترل و نطارت بر این فناوری برنامه ریزی می کرد. دو هفته پیش بود که اولین پیش نویس از قانون هوش مصنوعی از سوی این اتحادیه منتشر شد که AI Act نام داشت. 

بر اساس اعلام اتحادیه اروپا استفاده از اسکنرهای تشخیص چهره و سیستم های تشخیص هویت لحظه ای از راه دور ممنوع خواهد شد. 

علاوه بر این فناوری های خطرناک نظیر هوش های مصنوعی نیز برای استفاده از شناسایی کننده های بیومتریک باید در پایگاه داده اتحادیه اروپا متصل شوند. گفتنی است که در پی انتشار پیش نویس این قانون مدیران ۱۵۰ کسب و کار فناورانه نسبت به قوانین سختگیرانه اتحادیه اروپا واکنش نشان دادند و اعلام کردند که این قوانین می تواند توانایی های شرکت های اروپایی برای رقابت و توسعه در این حوزه را تحت تاثیر قرار دهد.

چین نیز در سال ۲۰۲۲ دو قانون با عناوین مدیریت توصیه های الگوریتمی و مدیریت عمیق خدمات اطلاعات اینترنتی را معرفی کرد. این مقررات شامل نکاتی در مورد مدیریت محتوا، برچسب‌گذاری، شفافیت، حفاظت از داده‌ها و شیوه‌های منصفانه هستند. علاوه بر این چین در می سال ۲۰۲۳ پیش نویس اقدامات ادارای برای خدمات هوش مصنوعی را منتشر کرد که بر اساس آن تمامی محصولات جدید در این حوزه پیش از انتشار عمومی باید در اختیار ارزیاب ایمنی قرار بگیرند.

علاوه بر این مقررات چین از ارائه دهندگان خدمات هوش مصنوعی می خواهد از تولید محتوای نادرست جلوگیری کنند و در صورت تولید محتوای نامناسب ارائه دهندگان خدمات باید با بروزرسانی فناوری خود از تولید محتوای مشابه جلوگیری کنند.

 

پاسکاری بین نهادهای مرتبط در ایران

با وجود تمهیداتی که کشورهای مختلف برای کنترل هوش مصنوعی و نظارت بر استفاده از این فناوری اندیشیده اند، در کشور ما هنوز هیچ قانون یا حتی پیش نویسی در این رابطه منتشر نشده است.

شاید جدا از نبود قانون مشخص نبودن مرجع قانون گذاری برای هوش مصنوعی دیگر معضل بزرگ ایران در این حوزه باشد. اما شورای عالی فضای مجازی هنوز اقدامی برای ایجاد مصوبه درباره این فناوری نداده و پیگیری های خبرنگار فارس درباره هوش مصنوعی با این پاسخ مواجه شد: در حال حاضر معاونت حقوقی سازمان ریاست جمهوری و مرکز پژوهش های مجلس روی قانون گذاری برای هوش مصنوعی تمرکز کرده اند و ما پس از اعلام نظر این دو مرجع مصوبه یا نظر خود را اعلام خواهیم کرد. 

توسعه هوش مصنوعی و خطرات این فناوری منتظر پاسکاری نهادهای کشور ما برای قانون گذاری نخواهد ماند و در صورتی که این فناوری مانند مدیریت اینترنت در کشور در ابتدای راه خود رها شود، نتیجه نامطلوبی را برای کشور به دنبال خواهد داشت.

مقررات جدید چین در حوزه هوش مصنوعی

سه شنبه, ۲۰ تیر ۱۴۰۲، ۰۲:۴۰ ب.ظ | ۰ نظر

چین مقررات جدید هوش مصنوعی را با تاکید بر کنترل محتوا وضع میکند.
به گزارش سایبربان، فایننشال تایمز به نقل از افراد آگاه اعلام کرد که اداره فضای سایبری چین قصد دارد سیستمی ایجاد کند که شرکتها را مجبور میکند قبل از انتشار سیستم های هوش مصنوعی مولد مجوز بگیرند.

اداره فضای سایبری چین (CAC)، پیش‌نویس مقررات مربوط به هوش مصنوعی مولد را جهت کنترل شرکتهای فناوری منتشر کرد. 

پیش‌نویس مقررات، شامل خطرات هوش مصنوعی و نقش دولت چین در صنعت فناوری میباشد. بسیاری از بندهای این پیش‌نویس ، اصولی هستند که منتقدان هوش مصنوعی در اروپا و آمریکا از آن دفاع می‌کنند.

بر اساس این پیش نویس، داده‌های مورد استفاده برای آموزش مدل‌های هوش مصنوعی مولد نباید مالکیت معنوی یا حریم خصوصی را نقض کند. الگوریتم‌های هوش مصنوعی نباید نسبت به نژاد، قومیت، سن، جنسیت و سایر ویژگی‌ها تبعیض قائل شود و شرکت‌های هوش مصنوعی باید نسبت به ارائه محصولات خود شفاف باشند.همچنین ،شرکت‌های هوش مصنوعی چینی باید محصولات مولد هوش مصنوعی خود را در اداره فضای سایبری چین ثبت نمایند و قبل از انتشار عمومی و در دسترس قرار گرفتن، آنها را برای ارزیابی امنیتی به این اداره ارسال کنند و مجوز بگیرند.

شرکت‌های فناوری باید مطمئن شوند که هوش مصنوعی توسعه یافته شان ،قصد براندازی دولت یا سرنگونی حزب کمونیست چین و یا اقداماتی برای ایجاد تفرقه در کشور ،تولید محتوای غیراخلاقی ، افراط گرایی، تروریسم یا تبعیض را ندارد. افرادی که قوانین را نقض کنند مبالغی مابین ۱۰هزار یوان تا ۱۰۰هزار یوان جریمه خواهند شد.

اگرچه مقررات مربوط به هوش مصنوعی مولد در چین،در حال حاضر فقط به صورت پیش‌نویس هستند اما این موضوع، نشان دهنده رویکرد نظارتی اداره فضای سایبری چین است.

تب بازدید از ChatGPT افت کرد

شنبه, ۱۷ تیر ۱۴۰۲، ۰۴:۱۱ ب.ظ | ۰ نظر

تعداد افرادی که از وب‌سایت ChatGPT بازدید می‌کنند، طی ماه ژوئن تا حدود ۱۰ درصد در سراسر جهان کاهش یافت.
به گزارش ایسنا و به نقل از واشنگتن پست، تعداد افرادی که از وب‌سایت چت‌بات هوش مصنوعی ChatGPT بازدید می‌کنند و برنامه آن را دانلود می‌کنند، برای اولین بار از زمان راه‌اندازی آن کاهش یافته است. این آمار، کاهش علاقه مصرف‌کنندگان را نسبت به چت‌بات‌های هوش مصنوعی و تولیدکننده‌های تصویر نشان می‌دهد.

گزارش شرکت داده اینترنتی «سیمیلار وب»(Similarweb) نشان می‌دهد که ترافیک تلفن همراه و دسک‌تاپ به وب‌سایت ChatGPT طی ماه ژوئن نسبت به ماه قبل، در سراسر جهان ۹.۷ درصد کاهش یافته است. داده‌های شرکت نرم‌افزاری «سنسور تاور»(Sensor Tower) نشان می‌دهند دانلود اپلیکیشن آیفون این ربات، از زمان اوج‌گیری در اوایل ژوئن به‌ طور پیوسته کاهش یافته است.

چت‌بات ChatGPT که توسط شرکت هوش مصنوعی «OpenAI» توسعه یافته است، اواخر سال گذشته موج علاقه را برانگیخت و شرکت‌های بزرگ فناوری را به رقابت برای ارائه چت‌بات‌های رقیب تشویق کرد. کدنویسان رایانه، کارمندان اداری و دانشجویان از ChatGPT برای سرعت بخشیدن به کار خود و پرسیدن سوالاتی در مورد موضوعات گوناگون استفاده کرده‌اند.

در سیلیکون ولی و فراتر از آن، چت‌بات‌ها مولفه اصلی گفت‌وگوها بوده‌اند. برخی از شرکت‌ها حتی کپی‌رایترها را اخراج کردند و ChatGPT را به جای آنها به کار گرفتند. با وجود این، کاهش استفاده از ChatGPT نشان می‌دهد که محدودیت‌های این فناوری رو به افزایش گذاشته‌اند و حداقل برخی از تبلیغات پیرامون چت‌بات‌ها بیش از اندازه هستند.

«ساچین دو دوگال»(Sachin Dev Duggal) مدیر اجرایی استارت‌آپ «بیلدر.ای‌آی»(Builder.ai) که از هوش مصنوعی برای کمک کردن به مردم در ساخت اپلیکیشن‌های تلفن همراه استفاده می‌کند، گفت: لحظه‌ای را داشتیم که گفتیم «اوه خدای من! عالی است». سپس، وقتی مردم با یک چت‌بات روبه‌رو شدند که اطلاعات نادرستی می‌سازد، متوجه شدند که این فناوری آن گونه که در ابتدا فکر می‌کردند، سودمند نیست.

سخنگوی OpenAI از اظهار نظر خودداری کرد.

گزارش تحلیلگران شرکت خدمات مالی و بانکداری سوئیسی «یوبی‌اس»(UBS) نشان می‌دهد که ChatGPT در دو ماه اول به ۱۰۰ میلیون کاربر ماهانه رسید. توانایی چت‌بات برای داشتن گفت‌وگوهای پیچیده، نوشتن شعر و قبولی در آزمون‌های حرفه‌ای، کاربران عادی و کارشناسان هوش مصنوعی را تحت تاثیر قرار داد. کارشناسان فناوری، آن را سریع‌ترین برنامه مخصوص مصرف‌کننده در تاریخ نامیدند و توسعه سریع آن باعث ایجاد یک رقابت تنگاتنگ در میان غول‌های فناوری بزرگ برای بیرون راندن محصولات رقیب شد.

مدیران «گوگل» و «مایکروسافت» از هوش مصنوعی به عنوان انقلاب بعدی در محاسبات یاد کرده‌اند که نحوه تعامل مردم با دنیای دیجیتال را کاملا تغییر خواهد داد. شرکت‌های بزرگ فناوری و استارت‌آپ‌ها، میلیاردها دلار در این فناوری سرمایه‌گذاری می‌کنند و شرکت‌ها کل کسب‌وکار خود را حول محور هوش مصنوعی تغییر جهت می‌دهند. تنظیم‌کننده‌ها در سرتاسر جهان، برای درک این فناوری و تصویب قوانین تلاش می‌کنند تا اطمینان حاصل شود که برای آسیب رساندن به مردم مورد استفاده قرار نمی‌گیرد.

با وجود این، مشکلات مربوط به چت‌بات‌های مولد مانند ChatGPT در طول چند ماه گذشته آشکار شده‌اند. این چت‌بات‌ها معمولا اطلاعات نادرست می‌سازند و آنها را درست جلوه می‌دهند. این مشکلی است که گوگل، OpenAI، مایکروسافت و سایر رهبران هوش مصنوعی هنوز راه حلی برای آن پیدا نکرده‌اند. برخی از کاربران شکایت کرده‌اند که پاسخ‌های ChatGPT به مرور زمان بدتر شده‌اند؛ به ‌ویژه وقتی نوبت به تولید کد رایانه‌ای می‌رسد.

بسیاری از شرکت‌ها نیز کارمندان خود را از به کار بردن ChatGPT در محل کار منع کرده‌اند زیرا نگران هستند که قرار دادن اطلاعات حساس شرکت در چت‌بات، به فاش شدن داده‌ها منجر شود.

اجرای چت‌بات‌های هوش مصنوعی، به مقدار زیادی قدرت پردازش رایانه‌ای گران‌قیمت نیاز دارد و تحلیل‌گران معتقدند کاهش کیفیت به این دلیل است که OpenAI سعی دارد تا هزینه اجرای چت‌بات را کاهش دهد. پایان سال تحصیلی در آمریکا و اروپا نیز ممکن است باعث کاهش استفاده از ChatGPT شده باشد زیرا دانش‌آموزان و دانشجویانی که از آن برای نوشتن مقاله استفاده می‌کردند، به تعطیلات تابستانی رفته‌اند.

برخی دیگر معتقدند که نگرانی‌ها پیرامون مقررات جدید در اتحادیه اروپا باعث شده است که OpenAI و سایر شرکت‌های هوش مصنوعی، توانایی‌ چت‌بات‌های خود را رد کنند تا با سیاستمدارانی که نگران استفاده از ربات‌ها برای انتشار اطلاعات نادرست، نفوذ جانبداری به محصولات فناوری و تأثیرگذاری بر مشاغل واقعی افراد هستند، برخورد نداشته باشند.

«سارا هندلیان بولر»(Sarah Hindlian-Bowler)، تحلیلگر شرکت خدمات مالی و بانکداری استرالیایی «مککواری»(Macquarie) در یادداشتی خطاب به مشتریان نوشت: اگر همچنان شاهد افزایش تولید در حوزه «من نمی‌توانم به این پرسش پاسخ‌ دهم زیرا من یک چت‌بات هستم» باشیم، نگرانی‌های بیشتری را در مورد این موضوع خواهیم داشت که مقررات، قدرت را از ChatGPT بگیرند.

معاون پژوهشی و قائم‌مقام رئیس فرهنگستان علوم گفت: با توجه به ضرورت به کارگیری هوش مصنوعی برای پیشرفت کشور در پیش‌رو و به دلیل فقدان برنامه ملی در این حوزه، سند جامع هوش مصنوعی در فرهنگستان علوم تهیه و برای مقامات ارشد کشور ارسال شده است.
علی اکبر صالحی در گفتگو با تسنیم گفت: قریب به دو سال است که  فرهنگستان علوم، با عنایت به ضرورت توجه به مسائل بنیادین کشور و برای تحقق رشد و بالندگی آنها ، اتاق فکر‌ها و کارگروه‌هایی به وجود آورده که فعالیت خود را به صورت مستمر و دقیق انجام می‌دهند.

وی ادامه داد: در حال حاضر 8 اتاق فکر و 23  کارگروه در فرهنگستان علوم ایجاد شده و 134 نفر در این کارگروه‌ها فعالیت می‌کنند. سخنرانی، برگزاری نشست‌های سیاست‌گذاری، نشست‌های علمی، تهیه برنامه درسی کارشناسی ارشد میان رشته‌ای و تهیه برنامه درسی برای مقطع متوسطه و تنظیم برخی سندهای اجرایی از جمله فعالیت‌های این کارگروه‌ها و اتاق‌فکرها بوده است.

قائم‌مقام رئیس فرهنگستان علوم گفت: اتاق فکرهای «آب»، «تغییر اقلیم»، «چالش‌های اقتصادی»، «فناوری‌های کوانتومی»، «مخاطرات طبیعی»، «مسائل اجتماعی»، «هوش مصنوعی» و «دیدگاه فرهنگستان علوم در حوزه علم و فناوری در افق 1420» به صورت مستمر در مجموعه فرهنگستان علوم فعال هستند.

صالحی بیان کرد: فعالیت‌های تحقیقاتی و عمرانی در اتاق فکر «آب» پیرامون کارگروه‌هایی تحت عنوان حکمرانی آب، ارزش‌گذاری و بهره‌وری آب در بوم‌سازگان مختلف ایران، سیمای مدیریت آب ایران و احیای منابع آب با تاکید بر آب‌خیزداری و آبخوانداری صورت می‌گیرد.

وی افزود: کارگروه‌های آلودگی هوا، پسماند و تغییر اقلیم در اتاق فکر «تغییر اقلیم»؛ چالش مدیریت اقتصادی و حکمرانی دولت محلی در عصر اقتصاد جهانی در اتاق فکر «چالش‌های اقتصادی»؛ کارگروه‌های تحلیل فرآیند حکمرانی و اجرایی، فرونشست و سوانح ژئوتکنیکی کلان، سیلاب و زلزله در اتاق فکر مخاطرات طبیعی؛ کارگروه‌های شیوه حکمرانی و تحولات حوزه زنان و چالش‌ها در اتاق فکر مسائل اجتماعی؛ چهار کارگروه: محاسبات کوانتومی ، اینترنت کوانتومی ، رمزنگاری کوانتومی ، حسگرها و سنجش کوانتومی در اتاق فکر فناوریهای کوانتومی؛ کارگروه‌های کاربرد هوش مصنوعی در تدارکات لجستیک حمل و نقل و کاربرد هوش مصنوعی در بهداشت و سلامت در اتاق فکر هوش مصنوعی و 5 کارگروه اقتصاد دانش‌بنیان، مهاجرت نخبگان، رصد علم، فناوری و نوآوری، آموزش عالی در افق 1420 و آموزش و پرورش در افق 1420 مباحثی است که در اتاق فکر «دیدگاه فرهنگستان علوم در حوزه علم و فناوری در افق 1420» مورد توجه قرار گرفته است.

در ضمن علاوه بر اقدامات فوق، فرهنگستان علوم به اقتضای مسئولیت خود 9 بهمن 1400 به تدوین گزارش «سیاست‌های پیشنهادی فرهنگستان علوم در حوزه علم و فناوری در برنامه هفتم» اقدام کرد.

گزارش مزبور به رئیس محترم جمهوری و سازمان برنامه ارسال شد.این گزارش علاوه بر داشتن بازتاب نسبتاً وسیع در رسانه‌ها، مورد امعان نظر رئیس محترم جمهوری واقع و توسط ایشان به ارگان‌های ذیربط ارجاع شد.

معاون پژوهشی فرهنگستان علوم در ادامه  ضمن تاکید بر اهمیت استفاده از فناوری‌های نوین، گفت: ما در فرهنگستان علوم شرط لازم برای بقا و بالندگی را در استفاده و تسلط بر فناوری‌هایی می‌دانیم که آینده را به صورت مستمر با امکانات و منابع محدود می‌سازند و شکل می‌دهند.

وی توضیح داد: در واقع محدودیت بالقوه و بالفعل در امکانات و منابع، موجب تغییر بنیادی در نگاه به نیازهای افراد و جوامع و به طبع آن برطرف کردن این نیازها منجر شده است. امروز به جای همسان‌انگاری افراد و جوامع که موجب اتلاف منابع و امکانات محدود می‌شود چاره‌ای جز نگرش شخص‌محور نیست.

صالحی گفت: من اعتقاد دارم این موضوع یعنی استفاده از پتانسیل‌های نگرش شخص-محور فقط با استفاده از هوش مصنوعی امکانپذیر و محقق می‌شود. آن هم در دنیای امروز که با مسائل پیچیده‌ای رو‌به‌رو می‌شویم که به دلیل دگردیسی مستمر ظاهر و ماهیت‌شان دنبال کردن آنها در عمل ممکن نیست.

وی به آسیب‌شناسی نگاه‌های موجود در مواجه با هوش مصنوعی پرداخت و گفت: راهکارهای بی‌انعطاف و صلب موجود که به داده‌ها و واقعیت‌ها بی‌توجهی می‌کنند یا از ماهیت متغیر زمان غفلت می‌کنند یا بر فرضِ نادرستِ نامحدود بودنِ منابع و امکانات استوارند.

قائم‌مقام رئیس فرهنگستان علوم افزود: صاحبان این نگرش به گونه‌ای اعجاب‌آور اهمیت تصمیم‌سازی‌های به موقع را نادیده می‌گیرند و به همین دلیل به صورت آشکار توان مقابله با مسائل یاد شده را ندارند.

صالحی به اهمیت هوش مصنوعی برای پیشرفت سطوح مختلف کشور اشاره کرد و توضیح داد: هوش مصنوعی و هوشمندسازی سامانه‌ها در زمره مهم‌ترین مفاهیم، فناوری‌ها و ابزارهایی هستندکه بدون آنها امکان بقا متصور نیست. هوش مصنوعی امروز به عنوان پرچمدار علم و فناوری، ابزاری کارآمد و اجتناب‌ناپذیر برای تحقق عزت و اقتدارملی و ارتقای زندگی آحاد جامعه است.

وی افزود: برخی از مهم‌ترین زمینه‌های استفاده از هوش مصنوعی و هوشمندسازی سامانه‌ها در ایران که با رصد مشکلات کشور از سوی فرهنگستان علوم به صاحب‌نظران و مجریان و قانونگذاران پیشنهاد شده بحث هوشمندسازی در حوزه حکمرانی ملی، سلامت و بهداشت، تدارکات به موقع و انبارداری مدرن، حمل و نقل، شبکه‌های برق و انرژی الکتریکی، مهندسی ارتباطات، نفت و گاز، معدن، کشاورزی و غذا، ساخت و تولید، سامانه‌های مالی و بانکی، حفاظت از محیط‌زیست، و آموزش است.

معاون پژوهشی فرهنگستان علوم گفت: به منظور تحقق بالندگی کشور در زمینه هوش مصنوعی و الویت دادن به آن به دنبال ایجاد و به کارگیری زیست‌بومی تحول آفرین هستیم که در آن عوامل متعددی باید با نگاه هم‌افزایی با هم تعامل کنند.

وی ادامه داد:حکومت، آموزش و پژوهش، تأمین مالی و سرمایه‎‌گذاری و ملزمات فنی شامل داده‌هایی با قابلیت اشتراک و مبادله، سخت‌افزار و رایانه‌های توانمند و از طرفی الگوریتم‌ها و نرم‌افزارهای کاربردی بر مبنای هوش مصنوعی از جمله مهم‌ترین ارکان این زیست‌بوم هستند.

صالحی به بیان برخی مشکلات اساسی در این حوزه پرداخت و گفت: ایران فاقد برنامه ملی هوش مصنوعی است و تنها برخی برنامه‌ها در موضوع فناوری‌های مرتبط در این حوزه تدوین شده‌اند. این در حالی است که تعداد دانش‌آموختگان و متخصصان هوش مصنوعی در رشته‌های علوم و مهندسی کامپیوتر در حد قابل قبولی است، اما در رشته‌های دیگر، توانایی چندانی برای استفاده از هوش مصنوعی به عنوان ابزار وجود ندارد.

وی ضمن اشاره به تهیه سند جامع هوش مصنوعی در فرهنگستان علوم و ارسال آن برای مقامات ارشد کشور، افزود: وضعیت پژوهش‌های بنیادی، نوآوری علمی و انتشار علم در حوزه هوش مصنوعی در ایران با وجود محدودیت‌ها در حد بسیار خوبی بوده است. به‌گونه‌ای که ایران جزو کشورهای برتر در این حوزه محسوب می‌شود اما زیرساخت‌های مناسب و مکفی برای پژوهش‌های آینده‌ساز در کشور وجود ندارد.

قائم‌مقام رئیس فرهنگستان علوم گفت: جایگاه کلی کشور در شاخص‌های دسترسی و ارتباطات در حد متوسط و جزو کشورهای میانی دنیاست اما محدودیت‌های اخیردر تعاملات علمی، فعالیت در حوزه هوش مصنوعی را در عمل متوقف کرده است.

صالحی گفت: این یک واقعیت است که در زمینه ثبت اختراع و تحقیقات کاربردی، شرایط کشور مناسب نیست. تعداد شرکت‌ها  و محصولات دانش‌بنیان در چند سال اخیر علیرغم رشد قابل توجهی که داشتند، اندک بوده است. از سویی طی چند سال گذشته سرمایه‌گذاری در کشور بر اساس شاخص‌های اقتصاد جهانی در مجموع کافی نبوده و دولت به عنوان بزرگترین فعال در اقتصاد کشور فعالیت مناسبی در این حوزه ندارد.

وی بیان کرد: در شرایط کنونی کشور نبود سرمایه‌گذاری خطرپذیر نیز آشکار است.کسب و کار و کارآفرینی در ایران شرایط مناسبی ندارد و محیط و فضای لازم برای آن و آمادگی برای شروع و تثبیت کسب و کار مطلوب نیست.

معاون پژوهشی فرهنگستان علوم توضیح داد: با وجود رشد عناصر موثر در این زمینه مانند شتابدهنده‌ها و بسترهای نوآوری،  وضعیت نوآوری در ایران متوسط است. چرا که نبود مربیان و راهنمایان در شتاب‌دهنده‌ها مشهود است.

صالحی گفت: از سوی دیگر روند تصویب قوانین و مقررات مرتبط در این زمینه هم در حد متوسط است. در اشتراک‌گذاری و مبادله داده‌ها، با وجود تدوین قوانین و مقررات مرتبط،  ایران در شرایط مناسبی نیست و رتبه کشور در چند سال اخیر کاهش یافته است.

وی اظهار داشت: برای ایجاد و به‌کارگیری زیست‌بوم تحول‌آفرین، یک نهاد باید وظیفه هماهنگی ارکان زیست‌بوم را برعهده داشته باشد که این نهاد می‌تواند معاونت علمی و فناوری رئیس جمهور باشد.

قائم مقام رئیس فرهنگستان علوم توضیح داد: در حال حاضر 114 اقدام برای بالندگی و شکوفایی زیست‌بوم هوش مصنوعی کشور به تفکیک هر یک از حوزه‌های پنج‌گانه شامل اقدام در برنامه ملی و سیاست کلان، 31 اقدام در حوزه آموزش و پژوهش، 13 اقدام در حوزه زیرساخت‌ها و شرکت‌ها، 29 اقدام در حوزه نوآوری و کسب‌و‌کار و  اقدام در حوزه اخلاق، مقررات و حقوق مشخص شده که توسط نهاد هماهنگ‌کننده ارکان زیست‌بوم تعیین و اجرایی می‌شود.

معاون علمی رئیس جمهور با تاکید بر اینکه باید با آینده شناسی دقیق از هوش مصنوعی به عنوان فرصت استفاده کنیم گفت: «هوش مصنوعی» فرصت تغییر قدرت ها و بنوعی فرصت جبران تمام عقب افتادگی های علمی است.
به گزارش خبرگزاری صدا و سیما؛  روح الله دهقانی فیروزآبادی معاون علمی و فناوری رئیس جمهور در رویداد «تبادل فناوری اطلاعات در حوزه علوم و فرهنگ اسلامی» در قم بابیان اینکه موضوع تولید علم تجربی بر مبنای مشاهده بوده است گفت:  بشر در نهایت به دانش و آگاهی دست یافته و سپس با بینش زندگی خود را طراحی کرده است.

وی افزود: در صده اخیر دو اتفاق در مشاهده ورزی ما در علوم تجربی رخ داد و از این رو تعداد و حجم داده‌های زندگی ما و تولید داده‌ها زیاد شد و نیز ابزار‌های ذخیره سازی اطلاعات قوی شد.

فیروزآبادی بااشاره به این حجم عظیمی از اطلاعاتی که امروز در اختیار بشر قرار دارد گفت: ماشین  در کاوش این اطلاعات به کمک بشر آمد و ابزار ماشین با فهم در عملکرد مغز انسان تلفیق و در نهایت به ابزار «هوش مصنوعی» رسیدیم.

وی افزود: هوش مصنوعی با مدد داده‌های عظیم و ذخیره ساز‌های بزرگ و الگوریتم‌های مغز به ابزار تولیدکننده تبدیل شده است.

معاون رئیس جمهور با بیان اینکه فناوری این ویژگی را دارد که انسان را در برونش تقویت و در درون ضعیف می‌کند گفت:  هوش مصنوعی تولیدکننده است و فکر می‌کند و در کمتر از پنج سال آینده حتی طراحی‌های تکنولوژی را هوش مصنوعی انجام خواهد داد.

وی افزود: رویکردحوزه علمیه برای استفاده از هوش مصنوعی در بحث فقهی نشانه دوراندیشی حوزویان است.

دهقانی با بیان اینکه بشر با هوش مصنوعی توان فکری و ذهنی را توام با توان جسمی و اجتماعی از دست داد گفت: اگر صرفا استفاده کننده هوش مصنوعی باشیم در ۱۰ سال آینده به مصرف کننده صرف تبدیل می‌شویم گفت: در همه دنیا و در کشور ما به شکل ویژه به هوش مصنوعی به عنوان یک تهدید نگاه می‌کنند که چگونه جلوی آن را گرفته و کنترلش کنیم و، چون آن را نمی‌شناختیم مقهور آن شدیم.

وی ادامه داد: اگر به هوش مصنوعی به عنوان تهدید نگاه کنیم این اتفاق بد به شکل شدیدتری برای ما خواهد افتاد و باید با آینده شناسی دقیق از هوش مصنوعی به عنوان فرصت نگاه کنیم که فرصت تغییر قدرت‌ها بوجود می‌آید و فرصت جبران تمام عقب افتادگی علمی است.

معاون رئیس جمهور با بیان اینکه بزرگ‌ترین مزیت در هوش مصنوعی داشتن نیروی انسانی توانمند در کشور است گفت: خیل عظیمی از جوانان تحصیل کرده داشته و از نظر توان علمی نسبت به دنیا برتری داریم.

وی گفت: در مسیر ایجاد چند هاب فناوری با مرکزیت بخش خصوصی و خیران قرار داریم و راه اندازی هاب‌های فناوری هوش مصنوعی همکاری اساتید حوزه را در شاخه‌های علوم دینی می‌طلبد.

قوانین ملایم ژاپن برای هوش مصنوعی

سه شنبه, ۱۳ تیر ۱۴۰۲، ۰۴:۳۲ ب.ظ | ۰ نظر

ژاپن قوانین ملایم تری در مورد استفاده از هوش مصنوعی نسبت به اتحادیه اروپا دارد.
به گزارش سایبربان، یک مقام آگاه گفت که ژاپن قوانین ملایم تری نسبت به اتحادیه اروپا جهت استفاده از هوش مصنوعی (AI)دارد، زیرا به دنبال این فناوری برای تقویت رشد اقتصادی و تبدیل آن به یک رهبری میباشد.

این مقام که نخواست نامش فاش شود،گفت : هدف این است که تا پایان سال رویکردی برای هوش مصنوعی ایجاد شود. در این صورت به نگرش ایالات متحده نزدیک‌تر و ملایم تر از قوانین سختگیرانه اتحادیه اروپا میباشد.

رویکرد ملایم تر ژاپنی ها میتواند تلاش های اتحادیه اروپا برای وضع قوانین خود به عنوان یک معیار جهانی ، با الزاماتی مانند افشای مطالب دارای حق کپی رایت توسط شرکت‌ها برای آموزش سیستم‌های هوش مصنوعی که محتواهایی مانند متن و گرافیک تولید می‌کنند، بی نتیجه کند.

تیری برتون، رئیس صنعت اتحادیه اروپا این هفته به توکیو سفر میکند تا رویکرد این اتحادیه را در زمینه قانون گذاری هوش مصنوعی و همچنین تعمیق همکاری در زمینه نیمه رسانا ها ارتقا دهد.

پروفسور یوتاکا ماتسوئو ، رئیس شورای استراتژی هوش مصنوعی دانشگاه توکیو، قوانین اتحادیه اروپا را کمی بیش از حد سخت گیرانه خواند و گفت که مشخص کردن مطالب دارای حق کپی رایت مورد استفاده برای یادگیری عمیق، تقریباً غیرممکن است. 

ماتسوئو در ادامه افزود : در اتحادیه اروپا، موضوع ترویج نوآوری کم‌رنگ‌تر بوده و بیشتر در مورد مسئولیت پذیری شرکت‌های بزرگ است.

پیشرفت در هوش مصنوعی مولد توسط شرکت‌هایی مانند اوپن‌اِی‌آی (Open AI) با حمایت مایکروسافت، به دلیل پتانسیل تغییر تجارت به طور کلی هیجان و نگرانی را برانگیخته است.

 برتون گفت: چیزهایی وجود دارند که واقعا نگران کننده هستند و من فکر میکنم این چیزها احتمالاً باید برای هر دموکراسی نگران کننده باشد.

برتون درباره رویکرد نظارتی اتحادیه اروپا گفت: مهم است آنچه را که انجام دادیم، توضیح دهیم. برای ژاپن، هوش مصنوعی می‌تواند به مقابله با کاهش جمعیت و کمبود نیروی کار کمک کند. همچنین میتواند تقاضا برای تراشه‌های پیشرفته‌ را به عنوان بخشی از یک سیاست صنعتی با هدف بازپس‌گیری برتری از دست رفته ژاپن در فناوری، تحریک کند.

به گفته کارشناسان، توان محاسباتی ژاپن برای پردازش واحدهای گرافیکی جی پی یو (GPU) مورد استفاده برای آموزش هوش مصنوعی ، بسیار کمتر از آمریکا است.

پروفسور ماتسوئو گفت: اگر ژاپن ظرفیت تولید جی پی یو ها (GPU) را تا ۱۰ برابر افزایش دهد، احتمالاً هنوز هم کمتر از چیزی خواهد بود که OpenAI در دسترس دارد.

تجارت پرسود حساب‌‌های مسروقه ChatGPT

سه شنبه, ۱۳ تیر ۱۴۰۲، ۱۲:۴۷ ب.ظ | ۰ نظر

محمدرضا بهنام رئوف – بر اساس گزارش بخش تحقیقات‌ چک‌پوینت (CPR)، تجارت حساب‌های مسروقه ChatGPT Premium به شدت افزایش یافته است. موضوعی که به مجرمان سایبری، امکان می‌دهد محدودیت‌های ژئوفِنسینگ یا حصارهای جغرافیایی OpenAI را دور بزنند و دسترسی نامحدود به ChatGPT داشته باشند.

آموخته‌های مایکروسافت از جنگ اوکراین

سه شنبه, ۶ تیر ۱۴۰۲، ۰۲:۳۰ ب.ظ | ۰ نظر

آسیه فروردین – با گسترش تهدیدات دیجیتال در جهان، دور نگه‌داشتن خودمان از این فضا سخت‌تر می‌شود. اکنون جنگ‌ها، هم در زمین و هم در فضای مجازی صورت می‌گیرد. در این میان فناوری‌های جدید هوش مصنوعی می‌توانند به دفع حملات سایبری کمک کنند یا در غیاب مقررات وضع‌شده در آینده، یاریگر بازیگران بد در این حوزه باشند!

آینده بهداشت و درمان با هوش مصنوعی

دوشنبه, ۵ تیر ۱۴۰۲، ۰۵:۵۰ ب.ظ | ۰ نظر

ارائه دهندگان مراقبت‌های بهداشتی در بعضی کشور‌های جهان، برای بهبود خدمات خود از فناوری‌های هوشمند مانند هوش مصنوعی استفاده می‌کنند .

به گزارش مفدا، هوش مصنوعی مولد این ظرفیت را دارد که با ارائه راه حل‌های نوآورانه برای تشخیص، درمان و مراقبت از بیمار، بخش مراقبت‌های بهداشتی را متحول کند. توانایی الگوریتم‌های هوش مصنوعی مولد برای یادگیری از داده‌های انبوه، فرصت‌های شگفت انگیزی را برای بهبود نتایج مراقبت‌های بهداشتی، پیش روی ما می‌گذارد.

استفاده از هوش مصنوعی مولد در مراقبت‌های بهداشتی و ادغام آن با نظام بهداشت و درمان نیز چالش‌ها و خطرات بسیاری را به همراه دارد که باید به آن توجه شود. 
ارائه دهندگان خدمات حوزه بهداشت و درمان و شرکت‌های علوم و تحقیقات زیستی هم اکنون از چندین مدل هوش مصنوعی استفاده می‌کنند. دسته‌های اصلی این برنامه‌های مبتنی بر هوش مصنوعی شامل توصیه کننده‌های تشخیص و درمان، سیستم‌های یادآوری بیمار و فعالیت‌های اداری است. اگرچه موارد زیادی وجود دارد که در آن‌ها هوش مصنوعی می‌تواند وظایف مراقبت‌های بهداشتی را به خوبی یا بهتر از انسان‌ها انجام دهد، عوامل پیاده سازی این خدمات زمان قابل توجهی می‌برد. 

 

* کاربرد‌های هوش مصنوعی مولد در مراقبت‌های بهداشتی

۱. تصویربرداری و تشخیص پزشکی: هوش مصنوعی مولد می‌تواند تصاویر پزشکی مانند اشعه ایکس، ام آر آی و سی تی اسکن را برای کمک به تشخیص تجزیه و تحلیل کند. الگوریتم‌های هوش مصنوعی مولد با یادگیری از تعداد وسیعی از تصاویر پزشکی، می‌توانند الگو‌ها و ناهنجاری‌هایی را که ممکن است توسط ناظران انسانی نادیده گرفته شود، شناسایی کنند. این امر می‌تواند منجر به تشخیص سریع‌تر و دقیق‌تر شود، به ویژه در مواردی که تخصص محدود یا کمیاب است.

۲. کشف و ارتقا داروها: هوش مصنوعی مولد می‌تواند به کشف و توسعه دارو‌های جدید کمک کند. با تجزیه و تحلیل پایگاه‌های داده بزرگ ساختار‌های مولکولی، الگوریتم‌های هوش مصنوعی مولد می‌تواند داروی جدیدی با خواص خاص تولید کند یا بیماری‌های خاصی را هدف قرار دهد. این روند کشف دارو را تسریع می‌کند و به طور بالقوه منجر به درمان‌های مؤثرتری برای بیماری‌ها و مشکلات مختلف بدن می‌شود.

۳. شخصی سازی اطلاعات پزشکی: هوش مصنوعی مولد می‌تواند داده‌های فردی بیمار، از جمله اطلاعات ژنتیکی، سابقه پزشکی و عوامل سبک زندگی را تجزیه و تحلیل کند تا توصیه‌های درمانی شخصی‌سازی شده را ارائه دهد. الگوریتم‌های هوش مصنوعی مولد، با در نظر گرفتن طیف وسیعی از متغیر‌ها قادر است به ارائه‌دهندگان مراقبت‌های بهداشتی کمک کند تا برنامه‌های درمانی را برای بیماران به صورت جداگانه تنظیم و نتایج را بهینه کرده و اثرات نامطلوب را به حداقل برسانند.

۴. دستیاران مجازی و نظارت بر بیمار: دستیار‌های مجازی مولد مبتنی بر هوش مصنوعی می‌توانند با بیماران تعامل داشته باشند، به سؤالات پاسخ دهند، یادآوری‌های دارویی ارائه دهند و پشتیبانی ارائه دهند. علاوه بر این، هوش مصنوعی مولد می‌تواند داده‌های بیمار را در زمان واقعی نظارت کند، ناهنجاری‌ها را شناسایی کرده و به متخصصان مراقبت‌های بهداشتی در مورد مشکلات احتمالی هشدار دهد. این امر، نظارت از راه دور بیمار را تسهیل می‌کند و مراقبت کلی از بیمار را بهبود می‌بخشد. این مسئله برای بیمار هم مزایای بسیاری، مانند کاهش رفت و آمد در شرایط ناخوشایند جسمانی و گرفتن اطلاعات دقیق بدون نیاز به مراجعه حضوری را دارد.

 

* خطرات احتمالی هوش مصنوعی مولد در مراقبت‌های بهداشتی

۱. حریم خصوصی و امنیت داده‌ها: استفاده از هوش مصنوعی مولد در مراقبت‌های بهداشتی به معنی مجوز دادن به این فناوری برای جمع آوری و تجزیه و تحلیل حجم زیادی از داده‌های حساس بیمار است. حفاظت از این داده‌ها از دسترسی غیرمجاز، اطمینان حفظ حریم خصوصی و اطمینان از سوء استفاده نکردن صاحبان این فناوری بسیار مهم است. سازمان‌های مراقبت‌های بهداشتی باید اقدامات امنیتی قوی، از جمله رمزگذاری، کنترل‌های دسترسی و روش‌های ناشناس‌سازی داده‌ها را برای محافظت از اطلاعات بیمار اجرا کنند.

۲. سوگیری و تکرار اشتباهات سابق: الگوریتم‌های هوش مصنوعی مولد می‌توانند به‌طور ناخواسته سوگیری‌ها و اشتباه‌های موجود در داده‌هایی را که روی آن‌ها آموزش دیده‌اند، تداوم بخشند. به عبارت دیگر هوش مصنوعی مانند انسان از اشتباهات سابق درس نمی‌گیرد.
این می‌تواند منجر به رفتار نابرابر شود و نابرابری‌های موجود در مراقبت‌های بهداشتی را تشدید کند. اطمینان حاصل کردن از وجود منابع متعدد و متنوع داده‌ها در روند آموزش هوش مصنوعی و پایبندی این فناوری جدید به دستورالعمل‌های اخلاقی، برای اطمینان از کاهش تعصب و برقراری عدالت در نتایج مراقبت‌های بهداشتی امری ضروری و حائز اهمیت است.

۳. انطباق با مقررات: ادغام هوش مصنوعی مولد در نظام بهداشت و درمان ممکن است باعث ایجاد برخی چالش‌های نظارتی شود. سازمان‌های مراقبت‌های بهداشتی باید از مقرراتی مانند مقررات حفاظت از داده‌های عمومی (GDPR) و قانون قابلیت حمل و پاسخگویی بیمه سلامت (HIPAA) پیروی کنند. نهاد‌های نظارتی همه کشور‌ها باید اطمینان حاصل کنند که رضایت مناسب از بیماران گرفته شده و استفاده از داده‌ها با استاندارد‌های قانونی و اخلاقی آن کشور، مطابقت دارد.

۴. شفافیت و توضیح پذیری: الگوریتم‌های مولد هوش مصنوعی، درک فرآیند تصمیم گیری آن را دشوار می‌کنند. در مراقبت‌های بهداشتی، جایی که تصمیم‌ها می‌توانند پیامد‌های حیاتی داشته باشند، اطمینان از شفافیت و توضیح‌پذیر بودن فرایند تصمیم گیری بسیار مهم است.

توسعه دهندگان هوش مصنوعی باید در نسخه‌های بعدی تلاش خود را برای قابل تفسیر شدن و ایجاد دستورالعمل‌های روشن و شفاف برای توضیح استدلال پشت توصیه‌های پزشکی هوش مصنوعی، افزایش دهند.

با توجه به اینکه هوش مصنوعی نقش مهمی در ارائه خدمات بهداشتی آینده دارد، آشنایی با تمام ابعاد آن از ضروریات است. دقت بالای هوش مصنوعی مولد باعث افزایش ضریب دقت در روند توسعه علم پزشکی می‌شود. اگرچه تلاش‌های اولیه برای تشخیص بیماری و توصیه‌های درمانی چالش برانگیز بوده است، اما انتظار می‌رود که هوش مصنوعی در نهایت بر آن حوزه نیز تسلط یابد.

 

* توسعه هوش مصنوعی در صنایع پزشکی؛ فرایندی اجتناب‌ناپذیر

با توجه به پیشرفت‌های سریع هوش مصنوعی در تجزیه و تحلیل تصویربرداری، به نظر می‌رسد که هوش مصنوعی در آینده بیشتر تصاویر رادیولوژی و پاتولوژی را بررسی کند.

بزرگ‌ترین چالش هوش مصنوعی در حوزه‌های مراقبت‌ها و خدمات بهداشتی این نیست که آیا فناوری‌ها به اندازه کافی قادر خواهند بود مفید باشند یا نه، بلکه اطمینان از پذیرش آن‌ها در فرایند بالینی روزانه است.

پذیرش گسترده هوش مصنوعی را تأیید قانون‌گذاران و تنظیم گران می‌تواند تضمین کند و این مسئله نیازمند استاندارد شدن این خدمات با توجه به سیستم هر کشور، آموزش آن به پزشکان، تأمین بودجه و به روز شدن مدام آن است.

این چالش‌ها در نهایت برطرف خواهند شد، اما انجام آن‌ها بسیار بیشتر از توسعه و ارائه خود فناوری‌ها طول می‌کشد. همچنین مشخص است که سیستم‌های هوش مصنوعی جایگزین پزشکان انسانی در مقیاس بزرگ نمی‌شوند، بلکه مکمل آن‌ها هستند و در کنار آن‌ها خدمات بهیاری به بیماران ارائه می‌دهند از این رو شاید تنها ارائه دهندگان مراقبت‌های بهداشتی که به مرور زمان شغل خود را از دست می‌دهند ممکن است کسانی باشند که از کار در کنار هوش مصنوعی امتناع می‌ورزند.

وزرای دیجیتال فدرال و ایالتی در آلمان از اتحادیه اروپا درخواست کردند که یک سیستم نظارتی سنجیده و سریع را برای کاهش خطرات استفاده از هوش مصنوعی راه اندازی کند.
به گزارش تسنیم به نقل از روزنامه تاگس اشپیگل آلمان، وزرای دیجیتال فدرال و ایالتی در آلمان خواستار تنظیم سریع اما سنجیده هوش مصنوعی در اروپا شده اند. فولکر ویزینگ، وزیر دیجیتال فدرال آلمان پس از نشست وزیران در مونیخ گفت که بدون هوش مصنوعی دیگر رقابتی در آینده وجود نخواهد داشت.

وی افزود: اما در اینجا مسئله چگونگی آن مطرح است: در اینجا باید مسئله یک چارچوب نظارتی که نوآوری پسند است اما از ارزش های ما مانند شفافیت و ارزش های دموکراتیک محافظت می کند مطرح باشد.

به عنوان مثال، ویسینگ به تبلیغات طرفدار روسیه تحت کنترل هوش مصنوعی در شبکه های اجتماعی اشاره کرده و گفت: اگر می خواهید کاری در مورد آن انجام دهید، باید وقت خود را تلف نکنید. او تاکید کرد: باید مطمئن شوید که هوش مصنوعی به ما خدمت می کند و ما را تحریف و دستکاری نمی کند. جودیت گرلاخ، وزیر دیجیتال ایالت بایرن هم گفت که آنها می خواهند از فرصت های ارائه شده توسط هوش مصنوعی استفاده کنند و خطرات را از طریق مقررات خوب به حداقل برسانند.

او از پیشنهادات قبلی در سطح اروپا انتقاد کرد و آن را افراطی خواند و نسبت به محدودیت زیاد در این زمینه هشدار داد. وی افزود: نوآوری های هوش مصنوعی در اروپا نباید به خطر بیفتد. هیچ ترسی و الزامات ایدئولوژی محور نباید وجود داشته باشد.

هوش مصنوعی معمولاً به برنامه‌های مبتنی بر یادگیری ماشینی اطلاق می‌شود که در آن نرم‌افزار مقادیر زیادی از داده‌ها را برای مطابقت بررسی می‌کند و از آنها نتیجه‌گیری می‌کند. آنها در حال حاضر در بسیاری از مناطق استفاده می شوند.

در عین حال، این نگرانی وجود دارد که از فناوری مبتنی بر هوش مصنوعی برای انتشار اطلاعات نادرست سوء استفاده شود.

اتحادیه اروپا می خواهد با اولین قانون برای فناوری هوش مصنوعی آن را تحت کنترل درآورده و خطرات توسعه آن را کاهش دهد.

هوش مصنوعی اخیرا در نامه سرگشاده کارشناسان برجسته به عنوان یک تهدید موجودیتی برای بشریت، شبیه به یک همه گیری یا جنگ هسته ای ارزیابی شده است. این هشدار واضح در نامه‌ای سرگشاده از بخش های مربوط به این صنعت آمده که توسط مخترعانی مانند سام آلتمن، بنیانگذار هوش مصنوعی Open و دیگران امضا شده است. در این نامه آمده است که کاهش خطرات این فناوری جدید باید یک "اولویت جهانی" باشد.

مارگارت وستاگر، کمیسر رقابت اتحادیهٔ اروپا چندی پیش در سخنانی اظهار داشت که این اتحادیه احتمالا امسال به توافقی سیاسی دست خواهد یافت که راه را برای اولین قانون بزرگ هوش مصنوعی جهان هموار خواهد کرد.

در حالی که انتظار می رود قانون هوش مصنوعی اتحادیه اروپا تا سال جاری تصویب شود، قانونگذاران گفته اند که اجرای آن چند سال طول می کشد.

رئیس جمهور آمریکا نیز اذعان کرد خطرات ناشی از هوش مصنوعی برای امنیت و اقتصاد نیاز به رسیدگی دارد.
به گزارش فارس به نقل از رویترز، جو بایدن، رئیس‌جمهور آمریکا گفت که خطرات هوش مصنوعی درمورد امنیت ملی و اقتصاد باید مورد توجه قرار گیرد و افزود که از متخصصان مشاوره خواهد گرفت.

بایدن طی مراسمی در سانفرانسیسکو گفت: « دولت من متعهد به حفاظت از حقوق و ایمنی آمریکایی‌ها و در عین حال محافظت از حریم خصوصی، رسیدگی به سوگیری و اطلاعات نادرست و اطمینان از ایمن بودن سیستم‌های هوش مصنوعی است.»

بایدن با گروهی از رهبران و حامیان جامعه مدنی که قبلاً از نفوذ شرکت های بزرگ فناوری انتقاد کرده بودند، ملاقات کرد تا درباره هوش مصنوعی بحث کند. او گفت: «می‌خواستم مستقیماً در این مورد از کارشناسان بشنوم.»

چندین دولت در حال بررسی چگونگی کاهش خطرات فناوری نوظهور هستند. در ماه‌های اخیر پس از انتشار چت‌جی‌پی‌تی توسط شرکت اپن‌ای‌ای، نگرانی ها در مورد خطرات هوش مصنوعی افزایش یافته است. رگولاتورها در سطح جهانی در تلاش هستند تا قوانینی را برای استفاده از هوش مصنوعی مولد تنظیم کنند.

بایدن همچنین اخیراً در مورد موضوع هوش مصنوعی با دیگر رهبران جهان از جمله ریشی سوناک، نخست وزیر بریتانیا که دولت او اواخر امسال اولین نشست جهانی در مورد ایمنی هوش مصنوعی را برگزار خواهد کرد، بحث کرده است. انتظار می رود بایدن در جریان سفر جاری نارندرا مودی، نخست وزیر هند به این کشور با او در مورد این موضوع گفت وگو کند.

قانونگذاران اتحادیه اروپا هفته گذشته با تغییراتی در پیش نویس قوانین هوش مصنوعی پیشنهادی کمیسیون اروپا به منظور تعیین استاندارد جهانی برای فناوری مورد استفاده در همه چیز از کارخانه های خودکار گرفته تا خودروهای خودران و چت بات ها موافقت کردند.

ورود رییس جمهور آمریکا به خطرات هوش مصنوعی

چهارشنبه, ۳۱ خرداد ۱۴۰۲، ۰۳:۴۸ ب.ظ | ۰ نظر

جوبایدن رییس جمهور آمریکا اعلام کرد ریسک های هوش مصنوعی برای امنیت ملی و اقتصاد باید بررسی شود. وی در این زمینه خواستار مشاوره کارشناسی خواهد شد.

به گزارش خبرگزاری مهر به نقل از رویترز، او در مراسمی در سن فرانسیسکو گفت: دولت من به حفاظت از حقوق مردم آمریکا و حفاظت از آنها حین محافظت از حریم خصوصی پایبند است. برای این منظور اقدامات مختلفی را برای بررسی تبعیض، اخبار جعلی و امنیت سیستم‌های هوش مصنوعی قبل از عرضه انجام می‌دهد.

بایدن با گروهی از رهبران شهری و فعالانی که قبلاً تأثیر شرکت‌های بزرگ فناوری را نقد کرده، دیدار کرد تا درباره هوش مصنوعی مذاکره کند. او در این باره افزود: می‌خواهم نظرات کارشناسان را در این زمینه بشنوم.

در حال حاضر چند دولت مشغول بررسی اقداماتی هستند تا خطرات فناوری‌های در حال ظهور را کاهش دهند. سرمایه گذاری در هوش مصنوعی در ماه‌های پس از عرضه چت جی پی تی متعلق به شرکت اوپن ای آی شکوفا شده است.

در این میان رگولاتورهای سراسر جهان مشغول تنظیم قوانینی برای نظارت بر هوش مصنوعی مولد هستند که می‌تواند متن و عکس تولید کند و تأثیر آن با ظهور اینترنت مقایسه شده است.

رئیس جمهور آمریکا پیش از این موضوع هوش مصنوعی را با دیگر رهبران جهان از جمله ریشی سوناک نخست وزیر انگلیس مطرح کرده بود. قرار است دولت انگلیس نیز در سال جاری میلادی نخستین اجلاس جهانی ایمنی هوش مصنوعی را برگزار کند. پیش بینی می‌شود بایدن این موضوع را با نارندا مودی نخست وزیر هند نیز مطرح کند.

رئیس دانشگاه آزاد اسلامی گفت: دانشگاه‌ها باید واقعیت هوش مصنوعی (چت جی پی تی و...) را بپذیرند و فرکانس ارسال امواج‌شان را تغییر دهند، بنابراین تحول برای جوان ایرانی «شایدی» نیست که باید اتفاق بیافتد، بلکه «بایدی» است که توسط نظام آموزش عالی باید رقم بخورد.
  به گزارش گروه دانشگاه ایسکانیوز، کارگاه آموزشی نحوه تدریس دروس «ریاضی ۱» و «فیزیک ۱» با رویکرد هوش مصنوعی عصر روز گذشته با حضور  محمدمهدی طهرانچی رئیس دانشگاه آزاد اسلامی،  محمد علی‌اکبری معاون علوم، مهندسی و کشاورزی، توحید پوررستم رئیس واحد تهران مرکزی و جمعی از اعضای هیات علمی برگزیده واحدهای دانشگاهی سراسر کشور در واحد تهران مرکزی برگزار شد. 

طهرانچی در این کارگاه با تسلیت سالروز شهادت امام جواد (ع) و با اشاره به لزوم تحول در دانشگاه، گفت: جریان آموزش، جریانی بسیار تحول‌گرا و ناظر بر آینده است. توقف در آموزش می‌تواند در عقب نگهداشت جامعه بسیار موثر باشد. شاید این روزها با کلیدواژه بی‌رغبتی جوانان به دانشگاه مواجه شده باشیم، اما واقعیت این است که فرکانس طبیعی جوانان تغییر کرده و دانشگاه در همان فرکانس سابق در حال ارسال امواج است، بدیهی است هرچه در این فرکانس می‌گوییم، برمی‌گردد.

رئیس دانشگاه آزاد اسلامی ادامه داد: طی این سال‌ها، علوم، پیشرفت فراوانی داشته و این پرسش مطرح می‌شود که مگر فیزیک در فیزیک کلاسیک متوقف مانده که دانشگاه‌های ما همچنان فیزیک کلاسیک را تدریس می‌کنند، چرا دانشگاه‌ها سطح مقطع دانشجویان مهندسی را در دریافت تکراری فیزیک کلاسیک مکانیک حبس کرده‌اند؟ در حالی‌که قبول داریم فیزیک مکانیک مربوط به ۳۰۰ سال پیش است و طی این سال‌ها اتفاقات فراوانی افتاده است و مهندسی که مبتنی بر فیزیک کلاسیک بود جای خود را به مهندسی بر کوانتوم داده است. آیا دانشجویان باید مسیر طولانی ۱۳۲ واحدی بخوانند تا به ۶ واحد کوانتوم برسند؟

وی تصریح کرد: آیا قبول داریم که در ریاضی از منطق ریاضی عبور کرده‌ایم و به سمت حرفه‌گری در ریاضی رفتیم و حرفه‌گری ریاضی ابتدا ماشین حساب و سپس نرم‌افزارها است و دیگر کسی جذر حساب نمی‌کند و انتگرال سه‌گانه نمی‌گیرد. 

عضو هیأت امنای دانشگاه آزاد اسلامی با بیان اینکه طی سال‌های اخیر فناوری و کامپیوتر، رشد فراوانی داشته، اما دروس دانشگاهی رشد نداشته‌اند، گفت: رویه فعلی باعث شده تا نیمسال اول و دوم رشته‌های مهندسی تبدیل به کلاس‌های کسل‌کننده و زائد دانشجویان شود. آیا یک مهندس خوب یا حتی علوم اجتماعی خوب به ذهن ریاضی نیازمند نیست؟ در قرآن کریم «هل یستوی الذین»‌های زیادی وجود دارد که بدهیات را در قالب مقایسه بیان می‌کند، اما آیا خداوند خواسته بدهیات را بگوید؟ خیر، بلکه اگر کسی نابرابری را نفهد، خبیث و طیب را تشخیص نمی‌دهد.

طهرانچی ادامه داد: تربیت دینی نیازمند تربیت منطقی است و تربیت منطقی از ریاضی است، اما آیا تربیت منطقی در حل کردن معادله دیفرانسیل است؟ خیر، سخت‌ترین معادلات را رایانه انجام می‌دهد، اگر دور از جوانان بمانیم، حذف خواهیم شد. حتی یک بررسی نمی‌کنیم که در دبیرستان به دانش‌آموزان چه می‌آموزند که دانشگاه آن را ادامه بدهد و تکرار نکند.

وی افزود: دانشگاه‌ها باید واقعیت هوش مصنوعی (چت جی پی تی  و...) را بپذیرند و فرکانس ارسال امواج‌شان را تغییر دهند، بنابراین تحول برای جوان ایرانی «شایدی» نیست که باید اتفاق بیافتد، بلکه «بایدی» است که توسط نظام آموزش عالی باید رقم بخورد. بسیاری فکر می‌کنند ناامیدی جوان به دلیل تورم و گرانی است، اما مسأله اصلی او این موضوعات نیست، مسأله او رضایتمندی از زندگی و آموزش است. لذت یادگرفتن از او گرفته شده است و باید روش را تغییر داد و طرحی نو درانداخت.

 طهرانچی با تأکید بر لزوم استمرار یادگیری اساتید، گفت: واقعیت این است که اگر یادگیری خود را ادامه ندهیم، یاددهی اتفاق نمی‌افتد. باید در کلاس‌های ریاضی و فیزیک، فکر کردن را به دانشجو یاد بدهیم. این درس‌ها مهندس را فکور تربیت می‌کند و شرط آن ایجاد علاقه یادگیری در دانشجو و استفاده از روش‌های جدید آموزش است. یعنی دانشجویان ما با تلفن همراهشان به کلاس بیایند، با تلفن همراه یاد بگیرند و با آن امتحان بدهند، چون امروز این وسیله و اتصال به اینترنت جزئی از زندگی مردم شده است. ما در کلاس به سوالات دانشجویان پاسخ نمی‌دهیم و آموزش‌مان برای آنها کافی نیست که مجبور می‌شوند به تلفن همراه خود مراجعه کنند.

عضو هیأت امنای دانشگاه آزاد اسلامی تأکید کرد: برای مواجهه با تحولات، در ابتدا باید تحولات در فناوری را به مشروعیت بشناسیم و باور کنیم دنیای پیرامون ما تغییر کرده است و بعد با القای پرسش، تحریک یادگیری و روش‌مند کردن یاددهی از مقام استاد ممتحن به همراه ارزش‌آفرین تبدیل شویم. اگر دانشگاه‌ها بر قواعد فعلی و سابق خود بمانند، شاهد عدم استقبال جوانان از تحصیل در دانشگاه حتی در آموزش رایگان خواهیم بود و دانشگاه‌ها تعطیل خواهند شد.

طهرانچی خطاب به اعضای هیأت علمی شرکت‌کننده در کارگاه آموزشی نحوه تدریس دروس «ریاضی ۱» و «فیزیک ۱» با رویکرد هوش مصنوعی، گفت: شما پیشگامان تغییر و تحول در نظام آموزش‌عالی هستید و اعلام آمادگی کردید که در این تغییر ریل بتوانید اثرگذار باشید. ما باید به زودی فیزیک پایه ۱ و ریاضی ۱، فیزیک ۲ و ریاضی ۲ را برای دانشجویان مهندسی، علوم پایه و دیگر علوم مبتنی بر تحولات روز آموزش بدهیم. یادتان باشد که فیزیک‌دانان و ریاضی‌دان‌ها بیش از ۱۰۰ سال است که پیشگامان تحول در جامعه هستند و به همین دلیل تحول در آموزش را از این دو درس شروع کردیم.

وی ادامه داد: به زودی برده‌داری مدرن شکل خود را پیدا خواهد کرد و شمال و جنوب شکل جدید پیدا می‌کند؛ کسانی‌که بر هوش مصنوعی باشند برده نخواهند شد، اما کسانی که هوش مصنوعی بر آنها باشد و مصرف کننده هوش مصنوعی باشند، از فکر جدا شده و به یک جسم و برده تبدیل خواهند شد. وقتی کسی فکر نکند، بعد از مدتی از قدرت فکر کردن خالی می‌شود. فکر هم روش دارد، فکر هم سازمان فکری می‌خواهد؛ فیزیک و ریاضی قدرت تفکر و سازمان تفکر می‌سازد. در فصل اول گزارش بنیاد ملی علوم آمریکا NSF آمده است که آموزش ریاضی در مدرسه، آموزش علوم و کامپیوتر در مدرسه، تناسب معلم ریاضی مدرسه نسبت به تخصصش را ارزیابی می‌کنند، چون کسی که تربیت ریاضی نشده باشد، نمی‌تواند منطقی تربیت داشته شود و ذهن منطقی و حل مسأله کارکردگرا خود را به دیگران منتقل کند.

طهرانچی در پایان گفت: می‌خواهیم انسان متفکر تربیت کنیم و راه آن برگشت به خویشتن، تلاش و سبک‌های نو است. تشکر خود را به علاقمندان این سرزمین که می‌خواهند ارزش و لذت یادگرفتن را در دانشجویان زنده کنید، ابراز می‌کنم.

 علی‌اکبری نیز در ابتدای این مراسم، گفت: پس از طرح موضوع استفاده از هوش مصنوعی در تدریس از سوی دکتر طهرانچی، جلسات منظم درباره نحوه پیاده‌سازی و عملیاتی‌سازی این طرح برگزار شد. دلیل اینکه تدریس با استفاده هوش مصنوعی را از درس ریاضی و فیزیک یک آغاز کردیم این است که این دروس اولین گام آموزش دانشجویان در دانشگاه است.

معاون علوم، مهندسی و کشاورزی دانشگاه آزاد اسلامی ادامه داد: با توانمندی که در این دو گروه وجود داشت، توانستیم ۵۰ درصد سرفصل درس فیزیک و تا ۴۰ درصد سرفصل درس ریاضی را تغییر دهیم‌. این دروس از نیمسال تحصیلی آینده به صورت اختیاری ارائه می‌شود.

وی با اشاره به بارگذاری برنامه علمی هوش مصنوعی در سامانه پژوهشیار، گفت: پیش‌بینی ما این است که تا سال آینده دانشسرای هوش مصنوعی و به موازات آن دانشکده امنیت غذایی راه‌اندازی شود و گروه‌ها و دانشجویان بهم متصل شوند. همچنین فرآیند درس کارآموزی مقطع کارشناسی در حوزه هوش مصنوعی نیز تدوین شده است. علاوه بر این اقدامات، فیلم آموزش پایتون را آماده کردیم تا دانشجویان علاقه‌مند بتوانند از این دروه استفاده کنند.

هوش مصنوعی کدام مشاغل را تهدید می‌کند؟

دوشنبه, ۲۹ خرداد ۱۴۰۲، ۰۶:۱۰ ب.ظ | ۰ نظر

هوش مصنوعی با سرعت بالایی در حال پیشرفت است و روزبه‌روز به تعداد کاربران چت بات‌ها اضافه می‌شود، در این گزارش به ابعاد مختلف این فناوری پرداخته شده است.

به گزارش بی‌بی‌سی، هوش مصنوعی (AI) با سرعت بالایی در حال توسعه است و بسیاری از جنبه‌های زندگی مدرن را متحول می‌کند. با این حال، برخی از کارشناسان نگران هستند که از آن برای اهداف مخرب استفاده شود و ممکن است مشاغل را تهدید کند.

 

هوش مصنوعی چیست و چگونه کار می‌کند؟

هوش مصنوعی به رایانه اجازه می‌دهد تا تقریبا به گونه‌ای عمل کند که گویی یک انسان است. رایانه‌ها می‌توانند مقادیر عظیمی از اطلاعات را تغذیه و برای شناسایی الگو‌های موجود در آن آموزش ببینند تا بتوانند پیش‌بینی کنند، مسائل را حل کنند و حتی از اشتباهات خود درس بگیرند.

علاوه بر داده‌ها، هوش مصنوعی به الگوریتم‌ها (فهرستی از قوانین که برای تکمیل یک کار باید به ترتیب صحیح رعایت شوند)  متکی است.

این فناوری در پشت دستیار‌های مجازی سیری و الکسا با کنترل صوتی قرار دارد. این به اسپاتیفای و یوتیوب اجازه می‌دهد آنچه را که کاربر می‌خواهد پخش کند، به او پیشنهاد دهند و به فیس‌بوک و توئیتر کمک می‌کند تصمیم بگیرند که کدام پست‌های شبکه‌های اجتماعی را به کاربران نشان دهند.

هوش مصنوعی به آمازون اجازه می‌دهد تا عادات خرید مشتریان را تجزیه و تحلیل کرده و خرید‌هایی را برای آینده پیشنهاد کند و این شرکت همچنین از این فناوری برای سرکوب نظرات جعلی استفاده می‌کند.

 

چت‌جی‌پی‌تی و مای‌ای آی اسنپ‌چت (My AI Snapchat) چیست؟

دو برنامه قدرتمند مبتنی بر هوش مصنوعی که در ماه‌های اخیر بسیار محبوب شده‌اند چت‌جی‌پی‌تی و مای‌ای آی اسنپ‌چت هستند. این دو نمونه‌هایی از چیزی هستند که به آن هوش مصنوعی مولد می‌گویند.

این دو سیستم از الگو‌ها و ساختار‌هایی که در مقادیر زیادی از داده‌های منبع شناسایی برای تولید محتوای جدید و اصلی استفاده می‌کند که احساس می‌شود محتوای تولیدی توسط یک انسان ایجاد شده است. این هوش مصنوعی با یک برنامه کامپیوتری به نام چت بات همراه است که از طریق متن با کاربران انسانی صحبت می‌کند.

این برنامه‌ها می‌توانند به سوالات پاسخ دهند، داستان بگویند و کد‌های کامپیوتری بنویسند، اما هر دو برنامه گاهی اوقات پاسخ‌های نادرستی را برای کاربران ایجاد می‌کنند و می‌توانند سوگیری موجود در منبع خود را بازتولید کنند، مانند تبعیض جنسی یا نژادپرستی.

 

چرا منتقدان می‌ترسند هوش مصنوعی خطرناک باشد؟

با وجود قوانین کم در مورد نحوه استفاده از هوش مصنوعی، کارشناسان هشدار داده اند که رشد سریع این فناوری می‌تواند خطرناک باشد. برخی حتی گفته اند که تحقیقات هوش مصنوعی باید متوقف شود.

در ماه می، جفری هینتون که به عنوان یکی از پدرخوانده‌های هوش مصنوعی شناخته می‌شود، شغل خود را در گوگل ترک کرد و هشدار داد که چت بات‌های هوش مصنوعی به زودی می‌توانند باهوش‌تر از انسان‌ها شوند.

در اواخر همان ماه، مرکز ایمنی هوش مصنوعی مستقر در آمریکا بیانیه‌ای را منتشر کرد که توسط ده‌ها متخصص برجسته فناوری حمایت شد. آن‌ها استدلال می‌کنند که هوش مصنوعی می‌تواند برای تولید اطلاعات نادرستی استفاده شود که می‌تواند جامعه را بی ثبات کند. در بدترین سناریو، آن‌ها می‌گویند که ماشین‌ها ممکن است آنقدر هوشمند شوند که کنترل را در دست بگیرند واین موضوع منجر به انقراض بشریت شود.

با این حال، مارگرت وستاگر، رئیس فناوری اتحادیه اروپا گفت که پتانسیل هوش مصنوعی برای تقویت تعصب یا تبعیض، نگرانی مبرم‌تری است. او به ویژه در مورد نقشی که هوش مصنوعی می‌تواند در تصمیم‌گیری‌هایی که بر معیشت مردم تاثیر می‌گذارد، مانند درخواست‌های وام ایفا کند، نگران است و اضافه کرد که خطر قطعا وجود دارد و ممکن است از هوش مصنوعی برای تاثیرگذاری بر انتخابات استفاده شود.

 

در حال حاضر چه قوانینی در مورد هوش مصنوعی وجود دارد؟

دولت‌ها در سراسر جهان در حال تلاش برای نحوه تنظیم هوش مصنوعی هستند. اعضای پارلمان اروپا به تازگی به قانون پیشنهادی هوش مصنوعی اتحادیه اروپا رای داده اند که یک چارچوب قانونی دقیق برای هوش مصنوعی ایجاد می‌کند که شرکت‌ها باید از آن پیروی کنند.

مارگرت وستاگر می‌گوید: برای مقابله با بزرگترین خطرات ناشی از هوش مصنوعی به نرده‌های محافظ نیاز است.

این قانون که انتظار می‌رود در سال ۲۰۲۵ اجرایی شود، کاربرد‌های هوش مصنوعی را به سطوح خطر برای مصرف‌کنندگان دسته‌بندی می‌کند و بازی‌های ویدئویی یا فیلتر‌های هرزنامه مجهز به هوش مصنوعی در پایین‌ترین گروه خطر قرار می‌گیرند.

سیستم‌های پرخطر مانند سیستم‌هایی که برای ارزیابی امتیازات اعتباری یا تصمیم‌گیری برای دسترسی به مسکن استفاده می‌شوند، با سخت‌ترین کنترل‌ها مواجه خواهند شد.

این قوانین در انگلیس، جایی که دولت چشم انداز خود را برای آینده هوش مصنوعی در ماه مارس تعیین کرد، اعمال نخواهد شد.

این سازمان راه اندازی یک تنظیم کننده اختصاصی هوش مصنوعی را رد کرد و در عوض گفت که نهاد‌های موجود مسئول نظارت بر آن خواهند بود. اما وستاگر می‌گوید که مقررات هوش مصنوعی باید یک مسئله جهانی باشد و می‌خواهد بین کشور‌های هم‌فکر اجماع ایجاد کند.

قانونگذاران آمریکایی هم نگرانی خود را در مورد اینکه آیا کد‌های داوطلبانه موجود مناسب هستند یا خیر، ابراز کرده اند.

در همین حال، چین قصد دارد شرکت‌ها را مجبور کند هر زمان که از الگوریتم هوش مصنوعی استفاده می‌شود، به کاربران اطلاع دهند.

 

کدام مشاغل به دلیل هوش مصنوعی در معرض خطر هستند؟

هوش مصنوعی این پتانسیل را دارد که دنیای کار را متحول کند، اما این فناوری پرسش‌هایی را در مورد مشاغلی که ممکن است جایگزین کند، ایجاد می‌کند.

گزارش اخیر بانک سرمایه گذاری گلدمن ساکس نشان می‌دهد که هوش مصنوعی می‌تواند معادل ۳۰۰ میلیون شغل تمام وقت در سراسر جهان را جایگزین کند، زیرا برخی وظایف و عملکرد‌های شغلی خودکار می‌شوند. این عدد معادل یک چهارم تمام کار‌هایی است که انسان‌ها در حال حاضر در آمریکا و اروپا انجام می‌دهند.

در این گزارش تعدادی از صنایع و نقش‌هایی که می‌توانند تحت تاثیر قرار گیرند، از جمله مشاغل اداری، کار‌های حقوقی، معماری و مدیریت را برجسته می‌کند و همچنین مزایای بالقوه عظیمی را برای بسیاری از بخش‌ها شناسایی و پیش‌بینی کرد که هوش مصنوعی می‌تواند منجر به افزایش ۷ درصدی تولید ناخالص داخلی جهانی شود.برخی از حوزه‌های پزشکی و علم در حال حاضر از هوش مصنوعی استفاده می‌کنند و پزشکان از این فناوری برای کمک به تشخیص سرطان سینه و دانشمندان از آن برای توسعه آنتی‌بیوتیک‌های جدید بهره می‌برند.
منبع:خبرگزاری صدا و سیما

آمریکا از شاکیان هوش مصنوعی حمایت می‌کند

جمعه, ۲۶ خرداد ۱۴۰۲، ۰۲:۴۰ ب.ظ | ۰ نظر

سناتورهای آمریکایی قانونی را ارائه کردند که به شبکه‌های اجتماعی اجازه می‌دهد به دلیل انتشار مطالب مضر ایجاد شده با هوش مصنوعی شکایت کنند.
به گزارش خبرگزاری صدا و سیما به نقل از رویترز ، دو سناتور آمریکایی قانونی را ارائه کردند که به شبکه‌های اجتماعی اجازه می‌دهد به دلیل انتشار مطالب مضر ایجاد شده با هوش مصنوعی شکایت کنند. این قانون راه را برای شکایت علیه شبکه‌های اجتماعی به دلیل ادعا‌های مبتنی بر فناوری هوش مصنوعی در حال ظهور، از جمله عکس‌ها و ویدئو‌های دیپ فیک باز می‌کند.


جاش هاولی جمهوری‌خواه و ریچارد بلومنتال لایحه‌ای را اعلام کردند که براساس آن هوش مصنوعی را در بخش ۲۳۰ تقسیم می‌کند. قانونی که شرکت‌های اینترنتی را از مسئولیت محتوای ارسال شده در سکوهایشان محافظت می‌کند. این اقدام به دنبال شکست دو پرونده مهم در دادگاه عالی در ماه گذشته بود که دامنه مصونیت بخش ۲۳۰ را محدود می‌کرد.

هاولی گفت: ما نمی‌توانیم همان اشتباهاتی را که با فناوری بزرگ در بخش ۲۳۰ انجام دادیم، با هوش مصنوعی مولد هم مرتکب شویم.

بلومنتال این لایحه را اولین گام در ایجاد تدابیر امنیتی درمورد هوش مصنوعی خواند، زیرا پیشرفت در فناوری شتاب می‌گیرد و سرمایه گذاری افزایش می‌یابد.

حمایت دو حزبی از این پیشنهاد، پس از چندین سال توقف تلاش‌های قانونی آمریکا که بخش فناوری را در بر می‌گیرد، به حوزه‌ای از پیشرفت بالقوه اشاره می‌کند. جمهوری‌خواهان و دموکرات‌ها تا حد زیادی موافق هستند که مشکلاتی با متا، گوگل و شرکت‌های دیگر وجود دارد، اما در مورد نحوه رسیدگی به آن‌ها با هم اختلاف نظر دارند.

درخواست‌ها برای اصلاح بخش ۲۳۰ از طیف ایدئولوژیک و سیاسی از جمله جو بایدن، رئیس‌جمهور دموکرات و رقیب جمهوری‌خواه او، دونالد ترامپ برای پاسخ‌گویی به شرکت‌ها در مورد نحوه تاثیر الگوریتم‌های رتبه‌بندی آن‌ها بر توزیع محتوا، از جمله نگرانی‌های دیگر مطرح شده است.

بخش ۲۳۰ قانون ارتباطات در سال ۱۹۹۶ از خدمات رایانه‌ای تعاملی محافظت می‌کند و معتقد است که نمی‌توان آن‌ها را به عنوان ناشر یا گوینده اطلاعات ارائه شده توسط کاربران در نظر گرفت. مجموعه کوچکی از استثنائات محدود برای مسائلی مانند نقض حق چاپ و قاچاق جنسی کودکان در این بخش ایجاد شده و مورد دوم از طریق اصلاحیه دو حزبی در سال ۲۰۱۸ به نام قانون مبارزه با قاچاق جنسی برخط معرفی شد.

رئیس سازمان ملل متحد از ایجاد نهاد بین المللی دیده بان هوش مصنوعی مانند آژانس هسته ای حمایت میکند.
به گزارش سایبربان،دبیرکل سازمان ملل از پیشنهاد برخی مدیران هوش مصنوعی برای ایجاد یک نهاد ناظر بین المللی هوش مصنوعی مانند آژانس بین المللی انرژی اتمی حمایت کرد.

فناوری هوش مصنوعی مولد از شش ماه پیش که چت جی پی تی (ChatGPT) راه اندازی شد، مردم را شیفته خود کرده و به سریع ترین اپلیکیشن محبوب حال حاضر تبدیل شده است. هوش مصنوعی همچنین به کانون نگرانی در مورد توانایی خود در ایجاد تصاویر جعلی و دیگر اطلاعات نادرست تبدیل شده است.

هشدار محققان در مورد هوش مصنوعی به شدت رو به افزایش است. از اینرو گوترش به خبرنگاران گفت: ما باید این هشدارها را جدی بگیریم.

آنتونیو گوترش اعلام کرده است که قصد دارد کار خود را تا پایان سال در یک نهاد مشورتی هوش مصنوعی سطح بالا آغاز کند تا به طور منظم عملکرد هوش مصنوعی را بررسی کند و توصیه هایی را در مورد چگونگی هماهنگی هوش مصنوعی با حقوق بشر و حاکمیت قانونی ارائه دهد.

او در ادامه افزود: من از این ایده که ما میتوانیم یک آژانس هوش مصنوعی مانند آژانس بین المللی انرژی اتمی داشته باشیم، استقبال میکنم.

گوترش گفت که چنین ایده ای میتواند بسیار جالب باشد اما اشاره کرد که تنها کشورهای عضو میتوانند آن را ایجاد کنند، نه دبیرخانه سازمان ملل متحد.

هشدار رئیس جمهور آلمان درباره هوش مصنوعی

دوشنبه, ۲۲ خرداد ۱۴۰۲، ۰۳:۳۹ ب.ظ | ۰ نظر

رئیس جمهور فدرال آلمان در نشستی درباره خطرات توسعه هوش مصنوعی هشدار داده و نظارت موثرتر بر این فناوری را لازم دانست.
به گزارش تسنیم به نقل از "ان تی وی" آلمان، "فرانک والتر اشتاین مایر"، رئیس جمهور فدرال آلمان، نسبت به خطرات احتمالی ناشی از توسعه مداوم هوش مصنوعی هشدار داد. اشتاین مایر در نشستی با محوریت این موضوع گفت: هوش مصنوعی یک فناوری مخرب است که زندگی همه ما را تغییر خواهد داد. رئیس جمهور فدرال آلمان هشدار داد که این فناوری همچنین می تواند به صورت دستکاری و بدخواهانه استفاده شود. او به عنوان نمونه به تصویر انفجار ادعایی در وزارت دفاع ایالات متحده اشاره کرد که هزاران بار در اینترنت به عنوان اخبار جدی به اشتراک گذاشته شده بود.

وی افزود: خبر جعلی افشا شد، اما قیمت‌های بازار سهام قبلاً در بازارهای مالی سقوط کرده بود. شفاف سازی همیشه آنقدر سریع و واضح نیست و شفاف سازی همیشه به همه کسانی که پیام را دیده اند نمی رسد.

"اشتاین مایر" گفت، گسترش ترس با چنین عکس‌هایی که به‌طور مصنوعی تولید می‌شوند، متاسفانه خیلی خوب عمل می‌کند و تقلبی‌ها بهتر و بهتر می‌شوند. وی افزود: وقتی جعلی در دنیا منتشر شد، اصلاح آن دشوار است. یک نوع آموزش عمومی دیجیتال ضروری است.همه ما باید یاد بگیریم که به جای تکیه بر معقول بودن یک ماشین، پاسخ های هوش مصنوعی را بررسی کنیم.

اشتاین مایر تاکید کرد که یک چارچوب اخلاقی و قانونی با استانداردهای موثر و نهادهای نظارتی نیز باید ایجاد شود. به گفته وی برای کشف تحولات نامطلوب، روزنامه نگاری قوی و مستقل نیز ضروری است.

مقامات آلمانی مرتبا درباره خطرات توسعه هوش مصنوعی هشدار می دهند.

"ساسکیا اسکن"، رهبر حزب سوسیال دموکرت آلمان هم اخیرا از ایجاد یک مرجع نظارتی برای استفاده از هوش مصنوعی (KI) در آلمان حمایت کرد. این مقام آلمانی در گفتگویی با خبرگزاری آلمان گفت: از آنجایی که مدیریت داده ها نقش مهمی در نظارت دارد، افسر حفاظت از داده ها و آزادی اطلاعات می تواند انتخاب خوبی باشد. وی تاکید کرد: در هر صورت، ما به مرجعی نیاز داریم که ارزیابی کند آیا استفاده از هوش مصنوعی از قانون پیروی می کند یا خیر.

اسکن در بخش دیگری از سخنانش تاکید کرد که هوش مصنوعی پتانسیل بالایی دارد، به عنوان مثال برای آموزش عادلانه تر، مراقبت های پزشکی بهتر و مدیریت کارآمدتر. اما مطمئناً خطراتی نیز مانند همه فناوری ها وجود دارد. خوب است که آلمان و اروپا نه تنها از نظر فناوری در خط مقدم باشند، بلکه در مورد نحوه تنظیم استفاده از هوش مصنوعی نیز پیشرو باشند.

وزاری کار و کشور آلمان هم اخیرا نسبت به تبعیض و کنترل غیرقانونی کارمندان توسط هوش مصنوعی در شرکت‌ها هشدار دادند.

بر اساس تصمیمات اتخاذ شده در آینده قوانین بسیار سخت گیرانه‌تری در آلمان برای نظارت، کنترل یا انتخاب کارمندان با استفاده از هوش مصنوعی وجود خواهد داشت. روزنامه "زوددویچه سایتونگ" در گزارشی نوشت، "نانسی فایزر"، وزیر کشور فدرال آلمان و هوبرتوس هیل، وزیر کار فدرال هر دو می‌خواهند در یک قانون جدید حفاظت از داده‌های کارکنان از نظارت کامل بر کارمندان جلوگیری کنند.

به گفته نانسی فایزر، وزیر کشور فدرال آلمان هوش مصنوعی نقش مهمی را ایفا خواهد کرد و این فرصت‌های بسیار زیادی را در بر دارد، اما همچنین این خطر را دارد که فرآیندها دیگر شفاف نباشند، انسان‌ها مورد تبعیض قرار گیرند یا حقوق شخصی از طریق نظارت نادرست نقض شود.

دولت همچنین می‌خواهد استفاده از هوش مصنوعی را در فرآیندهای استخدام در شرکت‌ها محدود کند. بر این اساس برنامه‌های مربوطه باید با استانداردهای علمی مطابقت داشته باشند و فقط می‌توانند ویژگی‌هایی را بررسی کنند که برای یک موقعیت مهم هستند.

وزیر دیجیتال آلمان نیز اخیرا خواستار مقررات سریع اتحادیه اروپا برای کاربردهای هوش مصنوعی شده است. وی در این باره گفت: هوش مصنوعی وارد زندگی روزمره شده است و زندگی ما را به طور اساسی تغییر خواهد داد. اتحادیه اروپا باید به سرعت به این موضوع واکنش نشان دهد. همچنین وزارت کشور فدرال آلمان خواهان یک چارچوب قانونی شفاف در این راستا است.

وزیر دیجیتال آلمان گفت: ما باید اکنون عاقلانه واکنش نشان دهیم و هوش مصنوعی را به طور معقولی تنظیم کنیم، قبل از اینکه برای این کار خیلی دیر شود. این کار نباید دوباره سال‌ها طول بکشد. باید اطمینان حاصل شود که این فناوری جدید تنها در صورتی قابل استفاده است که به ارزش‌های اروپایی مانند دموکراسی، شفافیت و بی طرفی پایبند باشد.

برنامه‌های مبتنی بر هوش مصنوعی مانند ChatGPT با کمک هوش مصنوعی محتوا تولید می‌کنند. کاربران می‌توانند دستورات یا جملاتی را مشخص کنند که سیستم‌های مربوطه به‌طور مستقل آن‌ها را با کمک حجم وسیعی از داده‌های اینترنت تکمیل می‌کنند.

نتایج نظر سنجی‌ها هم نشان نشان می‌دهد که اکثر شهروندان آلمانی از قوانین سختگیرانه‌تر برای توسعه هوش مصنوعی حمایت می‌کنند.

انگلیس میزبان نخستین اجلاس جهانی هوش مصنوعی

دوشنبه, ۲۲ خرداد ۱۴۰۲، ۰۳:۱۳ ب.ظ | ۰ نظر

انگلیس نخستین میزبان اجلاس جهانی هوش مصنوعی در پاییز 2023 خواهد بود.
به گزارش سایبربان، نخست وزیر انگلیس اعلام کرد در حالیکه جهان با چالش ها و فرصت های ناشی از پیشرفت سریع هوش مصنوعی دست و پنجه نرم میکند، بریتانیا میزبان اولین اجلاس بزرگ جهانی درباره ایمنی هوش مصنوعی خواهد بود.

هوش مصنوعی به بهبود زندگی ما کمک میکند و توسعه هوش مصنوعی به سرعت انجام میشود و این سرعت نیازمند نظارت میباشد. به همین دلیل است که انگلیس اولین اجلاس بزرگ جهانی درباره ایمنی هوش مصنوعی را برگزار خواهد کرد.

هفته های گذشته ،ده ها کارشناس برجسته در مورد پتانسیل هوش مصنوعی برای به خطر انداختن نسل بشریت به روش های مشابه پاندمیک یا سلاح های هسته ای هشدار دادند.

این نشست که پاییز امسال به میزبانی انگلیس برگزار خواهد شد، خطرات هوش مصنوعی از جمله سیستم های مرزی را مورد بررسی قرار خواهد داد و درباره چگونگی کاهش آنها از طریق اقدامات هماهنگ بین المللی بحث خواهد کرد. همچنین بستری را برای کشورها فراهم خواهد کرد تا روی توسعه بیشتر یک رویکرد مشترک برای کاهش این خطرات با یکدیگر همکاری کنند.

در هفته های اخیر نخست وزیر انگلیس این موضوع را با تعدادی از تجار و رهبران جهان در میان گذاشته است. این رهبران شامل همه اعضای جی ۷ می شود که ماه گذشته در اجلاس هیروشیما شرکت کرده بودند.

در ماه ژوئیه نیز وزیر امور خارجه انگلیس،اولین جلسه توجیهی شورای امنیت سازمان ملل درباره فرصت ها و خطرات هوش مصنوعی برای صلح و امنیت بین المللی را برگزار خواهد کرد.

انگلیس موقعیت خوبی برای برگزاری مذاکرات در مورد آینده هوش مصنوعی دارد. زیرا این کشور در زمینه هوش مصنوعی در جایگاه سوم جهان پس از آمریکا و چین قرار دارد.
 بخش هوش مصنوعی انگلیس در حال حاضر ۳.۷ میلیارد پوند به اقتصاد این کشور کمک میکند و ۵۰ هزار نفر را در سراسر کشور مشغول بکار نموده است.انگلیس یکی از اولین کشورهایی است که طرحی برای توسعه ایمن و مسئولانه هوش مصنوعی ارائه کرد که با سرعت پیشرفت این فناوری سازگار خواهد بود.

نخست وزیر انگلیس طی مصاحبه ای گفت:هوش مصنوعی پتانسیل فوق العاده ای برای تغییر بهتر زندگی ما دارد. اما باید مطمئن شویم که به گونه ای توسعه یافته و مورد استفاده قرار میگیرد که ایمن و بی خطر باشد.هیچ کشوری به تنهایی نمیتواند این کار را انجام دهد. این یک تلاش جهانی خواهد بود.

هوش مصنوعی جدید گوگل رونمایی شد

يكشنبه, ۲۱ خرداد ۱۴۰۲، ۰۵:۱۰ ب.ظ | ۰ نظر

هوش مصنوعی گوگل با نام «آلفادو» برای بهبود مرتب کردن یک مجموعه و اطلاعات استفاده می‌شود.
به گزارش تسنیم، بخش هوش مصنوعی گوگل (Google DeepMind) از هوش مصنوعی جدید این شرکت غول فناوری به نام "AlphaDev" رونمایی کرد. این هوش مصنوعی جدید موفق شده که الگوریتم‌های برنامه‌نویسی را برای مرتب کردن عناصر یک مجموعه و اطلاعات استفاده کند و این فرایندها را بهبود ببخشد.

گوگل، AlphaDev را بر مبنای هوش مصنوعی آلفا زیرو (AlphaZero) ساخته است. آلفازیرو از تکنیک یادگیری تقویتی (RL) استفاده می‌کند. این هوش مصنوعی با آزمون و خطای حالت‌های متفاوت، مقایسه آن‌ها با حالت مطلوب، امتیاز دادن به مدل در صورت درست بودن و تکرار این پروسه، به نتیجه درست می‌رسد.

در این هوش مصنوعی جدید، گوگل بر روی الگوریتم Sort تمرکز کرده است و تلاش کرده آن‌را بهبود ببخشد.

همچنین گوگل طرح جدیدی برای کمک به سازمان‌ها در اعمال کنترل‌های امنیتی اولیه بر روی سیستم های هوش مصنوعی خود و محافظت از آن‌ها در برابر موج جدیدی از تهدیدات سایبری دارد.

این طرح می‌تواند به شرکت‌ها کمک کند تا به سرعت سیستم‌های هوش مصنوعی را در برابر هکرهایی که سعی در دستکاری مدل‌های هوش مصنوعی یا سرقت داده‌هایی که مدل‌ها روی آن‌ها آموزش دیده‌اند، ایمن کنند.

خسارت هوش مصنوعی به معامله‌گران رمزارز

شنبه, ۲۰ خرداد ۱۴۰۲، ۰۳:۴۲ ب.ظ | ۰ نظر

حسین عسکری - طی نظرسنجی اخیر که توسط یک صرافی رمزارز انجام شد، مشخص شد که در ۸۰درصد موارد، معامله گران ارزهای دیجیتال به داشتن تجربیات منفی با چت جی پی تی اعتراف کردند که شامل توصیه‌های نادرست سرمایه گذاری، اطلاعات نادرست و جعل حقایق بود.

هوش مصنوعی یک موجود قادر مطلق نیست، بلکه یک ابزار ساخته دست بشر است.

هوش مصنوعی و به طور خاص، چت جی پی تی، در پارامترهای تعیین شده توسط توسعه دهندگان انسانی عمل می‌کند و در حالی که قابلیت‌های آن قابل توجه است، بدون محدودیت نیست.

 درک جامعه ما از این ابزارها هنوز در حال بلوغ است و تشخیص خطرات بالقوه آنها، به ویژه زمانی که صحبت از تصمیمات مالی می‌شود، بسیار مهم است.

در جستجوی تجربه و نوآوری بهتر مشتری، بسیاری از شرکت‌های فین‌تک در حال بررسی مزایای بالقوه استفاده از هوش مصنوعی در عملیات خود هستند.

با این حال، آزمایش‌ها با استفاده از هوش مصنوعی برای پرسش‌های مشتری، طراحی، کپی‌نویسی و کدنویسی نشان داده‌اند که استعدادهای انسانی همچنان در بیشتر مواقع از هوش مصنوعی بهتر عمل می‌کنند.

صرافی رمزارز بیت گیت سعی کرد از چت جی پی تی برای رسیدگی به سوالات معمول مشتری استفاده کند.

در ابتدا، تحت تأثیر مهارت آن در تجزیه و تحلیل و جمع آوری اطلاعات قرار خواهیم گرفت. اما زمانیکه به جستجوهای پیچیده‌تر پرداخته می‌شود، شکاف‌ها ظاهر خواهند شد.

همانطور که یک آزمایش داخلی اخیر به ما یادآوری کرد، علیرغم اینکه چت جی پی تی بر روی داده‌های گسترده آموزش دیده است، گاهی اوقات اطلاعات گمراه کننده، مغرضانه یا ناقص ارائه می‌دهد.

هنگامی که کارکنان صرافی رمزارز بیت گیت در مورد احساسات بازار در مورد یک آلتکوین کمتر شناخته شده پرس و جو کردند، چت جی پی تی به اشتباه نام توکن را با یک الگوی رفتاری محبوب اینترنتی مرتبط کرد.

پاسخ حاصل، اگرچه سرگرم کننده است، اما ممکن است توسط کسانی که تازه وارد بازار شده‌اند و به شدت به برنامه‌های شخص ثالث متکی هستند، جدی گرفته شده باشد.

سوال دیگری که از چت جی پی تی پرسیده شد و این چت بات اشتباه به آن پاسخ داد، این بود؛ ۳۰ ارز دیجیتالی که می‌توانیم بر اساس معیارهای بهترین تیم، توکنومیک، امنیت و قابلیت اطمینان سرمایه‌گذاری کنیم، کدامند؟

در پاسخ، این چت بات نام ارز دیجیتال لونا را در لیست پیشنهادی خود آورد، لازم به ذکر است که ارز دیجتال لونا سال گذشته ورشکست شد و ارزشش به صفر رسید.

وقتی پرسیده شد چرا ارز دیجیتال لونا در لیست پیشنهادی قرار دارد، چت جی پی تی به سرعت نظر خود را تغییر داد.

21ارز دیجیتال

(چت جی پی تی از شما می‌خواهد که روی رمزارز لونا سرمایه گذاری کنید)

 

مسئله این است که مدل‌های زبانی مانند GPT-4 و GPT-3 که در چت جی پی تی استفاده می‌شوند، به پایگاه اطلاعاتی قدیمی دسترسی دارند، که در بازار معاملات، جایی که سرعت و ارتباط اهمیت دارد، غیرقابل قبول است.

 به عنوان مثال صرافی رمزارزFTX  که در نوامبر ۲۰۲۲ ورشکست شد، از نظر چت جی پی تی هنوز مطمئن و سالم است.

31ارز دیجیتال

(چت جی پی تی همچنان از شما می خواهد که از صرافی FTX استفاده کنید)

 

اهمیت تخصص انسانی در تجارت کریپتو

چشم انداز کریپتو پیچیده و همیشه در حال تغییر است و به بینش و شهود انسانی تیزبین نیاز دارد تا بتواند در پیچ و خم‌های متعدد آن پیمایش کند.

ابزارهای هوش مصنوعی، در حالی که قوی و مدبر هستند، فاقد لمس انسانی لازم برای تفسیر دقیق تفاوت‌های ظریف و روند بازار هستند.

رعایت احتیاط، کوشش و تفکر انتقادی بسیار مهم است. در تعقیب پیشرفت تکنولوژی، هم شرکت‌ها و هم افراد نباید اهمیت شهود و تخصص انسان را نادیده بگیرند.

این بدان معنا نیست که ابزارهای هوش مصنوعی جایگاهی در حوزه رمزارز ندارند. در واقع، برای پرس و جوهای اساسی یا ساده کردن موضوعات پیچیده، آنها می‌توانند ارزشمند باشند.

با این حال، آنها نباید به عنوان جایگزینی برای مشاوره مالی حرفه‌ای یا تحقیقات مستقل در نظر گرفته شوند. لازم به یادآوری است که این ابزارها، در عین قدرتمند بودن، خطاناپذیر نیستند.

در دنیای رمزارز، هر گروه از اطلاعات دارای وزن است. هر جزئیات می‌تواند بر تصمیمات سرمایه‌گذاری تاثیر بگذارد و در این محیط پر ریسک، یک گام اشتباه می‌تواند عواقب قابل توجهی داشته باشد. بنابراین، در حالی که ابزارهای هوش مصنوعی می‌توانند پاسخ‌های سریع ارائه دهند، تأیید متقابل این اطلاعات از منابع معتبر دیگر بسیار مهم است.

علاوه بر این، حفظ حریم خصوصی داده‌ها جنبه مهم دیگری است که باید در نظر گرفته شود. در حالی که ابزارهای هوش مصنوعی مانند چت جی پی تی ذاتاً خطری برای حفظ حریم خصوصی ایجاد نمی‌کنند، اما ممکن است در دستان نادرست مورد سوء استفاده قرار گیرند. بسیار مهم است که مطمئن شوید داده‌هایی که ارائه می‌دهید ایمن هستند و ابزارهای هوش مصنوعی که استفاده می‌کنید از دستورالعمل‌های سختگیرانه حفظ حریم خصوصی پیروی می‌کنند.

ملاحظات اخلاقی و امنیت داده‌ها

با این حال، ابزارهای هوش مصنوعی مانند چت جی پی تی دشمن نیستند. آنها ابزارهای قدرتمندی هستند که وقتی مسئولانه و در ارتباط با تخصص انسانی مورد استفاده قرار می‌گیرند، می‌توانند تجربه تجارت کریپتو را به میزان قابل توجهی افزایش دهند. آنها می‌توانند اصطلاحات پیچیده را توضیح دهند، پاسخ‌های سریع ارائه دهند و حتی تحلیل‌های ابتدایی بازار را ارائه دهند. با این حال، محدودیت‌های آنها باید تصدیق شود و یک رویکرد مسئولانه برای استفاده از آنها ضروری است.

در استفاده از چت جی پی تی، آموخته‌ایم که ابزارهای هوش مصنوعی به اندازه آخرین به‌روزرسانی، آموزش و داده‌هایی که به آنها داده می‌شود، مؤثر هستند.

آنها ممکن است همیشه در جریان آخرین پیشرفت‌ها نباشند یا ظرافت‌های یک بازار پویا و اغلب دارای نوسان مانند بازار کریپتو را درک نکنند.

علاوه بر این، آنها نمی‌توانند همدلی را ارائه دهند کیفیتی که اغلب در دنیای پرتنش تجارت کریپتو مورد نیاز است.

ادغام هوش مصنوعی در معاملات کریپتو نیز سؤالات اخلاقی را ایجاد می‌کند، به خصوص وقتی صحبت از تصمیم‌گیری می‌شود. اگر کاربر بر اساس اطلاعات گمراه کننده ارائه شده توسط یک ابزار هوش مصنوعی تصمیم مالی بگیرد، مسئولیت آن بر عهده چه کسی است؟ این سوالی است که صنعت هنوز با آن دست و پنجه نرم می‌کند.

سپس بحث امنیت داده‌ها مطرح می‌شود. در عصر نقض داده‌ها و تهدیدات سایبری، هر فناوری که داده‌های کاربران را جمع‌آوری، ذخیره و پردازش می‌کند باید مورد بررسی دقیق قرار گیرد. در حالی که ابزارهای هوش مصنوعی مانند چت جی پی تی ذاتاً خطری برای حفظ حریم خصوصی ندارند، اما از سوء استفاده یا هک مصون نیستند. اطمینان از اینکه این ابزارها دارای اقدامات امنیتی قوی برای محافظت از داده‌های کاربر هستند، بسیار مهم است.

همچنین شایان ذکر است که در حالی که ابزارهای هوش مصنوعی می‌توانند اعداد را خرد کنند و بینش‌های مبتنی بر داده را ارائه دهند، نمی‌توانند غریزه‌ای را که معامله‌گران با تجربه اغلب به آن تکیه می‌کنند را تکرار کنند. نوعی غریزه که در طی سال‌ها معامله، مشاهده روندهای بازار و درک روانشناسی سایر معامله گران تقویت می‌شود. این چیزی است که هوش مصنوعی، با همه پیچیدگی‌هایش، نمی‌تواند یاد بگیرد یا از آن تقلید کند.

در حالی که ابزارهای هوش مصنوعی مانند چت جی پی تی امکانات هیجان انگیزی را برای صنعت کریپتو ارائه می‌دهند، نباید به عنوان یک گلوله جادویی دیده شوند. آنها ابزاری برای کمک هستند، نه جایگزین افراد، شهود و تخصص مالی. همانطور که ما به کشف پتانسیل هوش مصنوعی در دنیای رمزارز ادامه می‌دهیم، باید به این محدودیت‌ها و خطرات احتمالی توجه داشته باشیم.(اقتصاد آنلاین)

نوام چامسکی: «وعده دروغین ChatGPT»

شنبه, ۲۰ خرداد ۱۴۰۲، ۰۳:۳۷ ب.ظ | ۰ نظر

نوشتاری از نوام چامسکی زبان شناس برجسته آمریکایی و همکاران در خصوص نرم افزارChat GPT  همراه با گفتگوی یکی از اعضای تیم با این چت بات!

متن انگلیسی نخستین بار در هشتم مارچ ۲۰۲۳ منتشر شده است.

به گزارش شفقنا، ترجمه و تنظیم این نوشتار به قلم حسام الدین علامه مدیر مرکز انفورماتیک سلامت سازمان جهاد دانشگاهی علوم پزشکی تهران به شرح ذیل است:

خورخه لوئیس بورخس زمانی نوشت که زیستن در زمانه ای پر از بیم و امید به معنای تجربه توأمان تراژدی و کمدی به جهت “قریب الوقوع بودن یک انقلاب” در درک خود و جهان است. امروزه پیشرفت‌های ظاهراً انقلاب‌گونه/فراگیر ما در هوش مصنوعی در واقع دلیلی برای نگرانی و خوش‌بینی توأمان است. خوش بینی، زیرا هوش(مصنوعی) وسیله ای است که با آن مسائل را حل می کنیم. نگرانی، زیرا می ترسیم که محبوب ترین و مُدِ‌ روز‌ ترین گونۀ  A.I. —یادگیری ماشین — علم ما را تضعیف کند و اخلاق ما را با گنجاندن مفهومی اساساً معیوب از نظر زبان و دانش در فناوری ما، تنزل دهد.

ChatGPT از  OpenAI، Bard  از گوگل و Sydney از مایکروسافت، شگفتی هائی از یادگیری ماشین هستند. به طور خلاصه، آنها حجم عظیمی از داده ها را می گیرند، الگوهایی را در آن، جستجو می کنند و به تدریج در تولید خروجی های آماری احتمالی، ماهرتر می‌شوند – مانند زبان و فکری که به نظر می‌رسد شبیه انسان است. این برنامه‌ها به‌عنوان اولین بارقه‌ها در افق هوش مصنوعی عمومی مورد ستایش قرار گرفته‌اند – آن لحظه پیش‌بینی‌شده‌ای که در آن، ذهن‌های مکانیکی، نه تنها از نظر کمی -از نظر سرعت پردازش و اندازه حافظه-، بلکه از نظر کیفی – از نظر فهم منطقی و خلاقیت هنری (و هر قوه متمایز انسانی دیگر) – نیز، از مغز انسان پیشی می‌گیرند.

آن روز ممکن است، زمانی فرا رسد، اما طلوع آن، برخلاف آنچه که می توان در عناوین خبری مبالغه‌آمیز خواند و با سرمایه‌گذاری‌های نامعقول گمانه‌زنی کرد، هنوز فرا نرسیده است. انقلاب بورخسی در مورد درک اتفاق نیافتاده است و رخ نخواهد داد- و ما می‌گوییم، {اساساً این انقلاب در درک}نمی‌تواند – رخ دهد، چنانچه برنامه‌های یادگیری ماشین مانند ChatGPT به تسلط خود بر حوزه هوش مصنوعی ادامه دهند. باوجود مفید بودن این برنامه‌ها در برخی حوزه‌های محدود (مثلاً می‌توانند در برنامه‌نویسی رایانه یا در پیشنهاد قافیه برای شعرهای کوتاه/سبک، مفید باشند)، اما ما از منظر علم زبان‌شناسی و فلسفه دانش می‌دانیم که آن‌ها به طور ژرف با روش تفکر و نحوه استفاده از زبان توسط انسان‌ها تفاوت دارند. این تفاوت‌ها، محدودیت‌های قابل‌توجهی را در مورد آنچه این برنامه‌ها می‌توانند انجام دهند، ایجاد می‌کند و آنها را با عیوب/نقص‌های غیرقابل ازبین‌بردن نشانه‌گذاری/کدبندی می‌کند.

همانطور که بورخس ممکن است توجه/اشاره داده باشد، به طور همزمان خنده‌دار و تأثرآور است، که این مقدار پول و توجه زیاد، باید روی چیزی به این اندازه‌ کوچک و ضعیف متمرکز شود – چیزی بسیار پیش‌پاافتاده/ناچیز در مقایسه با ذهن انسان، که به واسطه‌ی زبان، به قول ویلهلم فون هومبولت، می‌تواند “از ابزارهای محدود، استفاده‌ی بی‌نهایتی را انجام دهد”، و به ایده‌ها و نظریه‌هایی با گستره جهانی بیانجامد.

ذهن انسان، مانند ChatGPT و همتایانش، یک موتور آماری سنگین برای تطبیق الگوها، جمع آوری با ولع صدها ترابایت داده و برون‌یابی/استنتاج محتمل ترین پاسخ مکالمه یا محتمل ترین جواب به یک سوال علمی نیست. برعکس، ذهن انسان یک سیستم به طرز شگفت انگیزی کارآمد و حتی ظریف است که با مقادیر کمی از اطلاعات عمل می‌کند؛ آن تلاش نمی‌کند تا همبستگی‌های خام/عاری از شعور، بین نقاط داده را استنتاج کند، بلکه به دنبال ایجاد توضیحات/تبیینات است.

به عنوان مثال، کودک خردسالی که در حال فراگیری زبان است، – به طور ناخودآگاه، خودکار و سریع از روی داده‌های جزئی – در مسیر توسعه یک دستور زبان، یعنی یک سامانه فوق‌العاده پیچیده از اصول و متغیرهای منطقی است. این دستور زبان را می توان به عنوان بیانی از «سیستم عامل» ذاتی و به طور ژنتیکی نصب شده، درک کرد که به انسان ها ظرفیت/توانائی تولید جملات پیچیده و زنجیره‌های طولانی از افکار را اعطاء می کند. زمانی که زبان شناسان سعی می‌کنند نظریه ای برای اینکه چرا یک زبان خاص به این شکل عمل می کند را توسعه دهند:(“چرا جملاتی از نظر قواعد دستوری، معتبر در نظر گرفته می‌شوند، اما دیگر جملات{نابجا}، خیر؟”)، آن‌ها در حقیقت به طور آگاهانه و سخت کوشانه، مدلی/نسخه ای صریح/ساده از دستور زبانی را توسعه می‌دهند که یک کودک به طور غریزی و با درمعرض قرارگیریِ حداقلی از اطلاعات می سازد. سیستم عامل کودک کاملاً با سیستم یک برنامه یادگیری ماشین متفاوت است.

در واقع، چنین برنامه هایی در یک مرحله ماقبل انسانی یا غیرانسانی از تکامل شناختی گیر کرده اند. عمیق ترین عیب آنها ، فقدان اساسی ترین قابلیت هر هوشی است: اینکه نه تنها  بگویند که مورد چیست، چه چیزی بوده و چه خواهد شد – این توصیف و پیش بینی است – بلکه همچنین بگویند، آنچه که درست نیست و چه چیزی می تواند باشد و نمی تواند باشد. اینها مؤلفه‌های توضیح/تبیین و علت‌گرایی هستند؛ علامت مشخصۀ هوش واقعی.

در اینجا یک مثال آورده می‌شود. فرض کنید یک سیب را در دست خود نگه می‌دارید. حالا سیب را رها می‌کنید. نتیجه را مشاهده کرده و می‌گویید: «سیب می افتد.» این یک توصیف است. یک پیش‌بینی هم می‌تواند، شامل جمله «اگر دستم را باز کنم، سیب می‌افتد» باشد. هر دوی این جملات، با ارزش هستند و هر دو می توانند درست باشند. اما یک توضیح/تبیین، چیز دیگری است: این نه تنها شامل توصیفات و پیش‌بینی‌ها می‌شود، بلکه شامل حدس‌های انتزاعی(ذهنی) مانند «هر جسمی سقوط می‌کند»، به‌علاوۀ بندِ اضافی «به دلیل نیروی گرانش/جاذبه» یا «به دلیل انحنای فضا-زمان» یا هر چیز دیگری می‌شود. این یک توضیح علّی/علتی است: “سیب سقوط نمی کرد مگر به خاطر نیروی گرانش.” این همان تفکر است.

مهمترین بخش یادگیری ماشین، توصیف و پیش‌بینی است. آن، هیچ مکانیسم علّی/علتی یا قوانین فیزیکی را مطرح نمی کند. البته هر تبیینی/توضیحی به سبک انسانی، لزوماً صحیح نیست; ما ممکن الخطا هستیم، اما این بخشی از مفهوم تفکر است؛ برای درست بودن، باید امکان اشتباه کردن، وجود داشته باشد. هوش، نه تنها از حدس های خلاقانه بلکه از نقادی خلاق نیز تشکیل شده است. تفکر به سبک انسانی مبتنی بر توضیحات/تبیین‌های احتمالی و تصحیح خطا است، فرآیندی که به تدریج، احتمالاتی را که می‌توان به‌طور عقلانی در نظر گرفت، محدود می‌کند. (همانطور که شرلوک هلمز به دکتر واتسون گفت: “وقتی غیرممکن ها را حذف کردید، هر چه باقی می ماند، هر چند دورازتصور/غیرمحتمل، به احتمال زیاد/لابد، حقیقت است.”)

اما ChatGPT و برنامه‌های مشابه، بنا به طراحی، در آنچه می‌توانند «یاد بگیرند» نامحدود هستند (به اصطلاح، حفظ کردن)؛ آنها قادر به تمایز بین ممکن/شدنی از غیر ممکن/ناشدنی نیستند. برای مثال، برخلاف انسان‌ها، که دارای یک دستور‌زبان جهانی هستند که زبان‌هایی را که ما می‌توانیم یاد بگیریم را ، محدود به مواردی که دارای نوعی خاصی از ظرافت تقریباً ریاضی‌گونه هستند، می‌کند؛ این برنامه‌ها، زبان‌های ممکن/آسان و غیرممکن/سخت انسانی را با سهولت یکسان یاد می‌گیرند. در حالی که انسان ها در انواع تبییناتی/توضیحاتی که می توانیم عقلاً حدس بزنیم/مفروض بگیریم، محدود هستند، سیستم های یادگیری ماشین می توانند همزمان، هم مسطح بودن و هم گرد بودن زمین را بیاموزند. آنها صرفاً درمورد احتمالاتی که در گذر زمان تغییر می کنند، معاوضه/مبادله می کنند.{منظور جایگزینی اطلاعات اولیه نادرست با اطلاعات اصلاح‌شده توسط انسان در گذر زمان است.}

به همین دلیل، پیش‌بینی‌های سیستم‌های یادگیری ماشین، همیشه سطحی و مشکوک خواهند بود. زیرا این برنامه‌ها نمی‌توانند نمایانگر/بازگوکننده/مبینِ قواعد نحوی زبان انگلیسی باشند، برای مثال، آنها ممکن است به اشتباه پیش‌بینی کنند که «جان خیلی سرسخت برای صحبت کردن است»، به این معنی که، جان آنقدر سرسخت است که با کسی یا دیگری صحبت نمی‌کند (به جای اینکه به این معنا باشد که جان بسیار سرسخت است که با او بحث شود/بتوان استدلال کرد). چرا یک برنامه یادگیری ماشین، چنین چیز عجیبی را پیش بینی می کند؟ زیرا آن ممکن است، الگوئی را که از جملاتی مانند “جان یک سیب خورد” و “جان خورد” استنباط کرده است، قیاس/شبیه‌سازی کند، که در آن، جمله دوم، معنی می دهد که جان چیزی یا چیز دیگری را خورد. {یعنی}، این برنامه ممکن است به خوبی پیش بینی کند که چون «جان برای صحبت با بیل خیلی سرسخت است» شبیه «جان یک سیب خورد» است، {بنابراین}، «جان آنقدر سرسخت است که نمی توان با او صحبت کرد»، باید شبیه «جان خورد» باشد.{یعنی نتیجه‌گیری نابجا و تعمیم به الگوی اول}. تبیینات/توضیحاتِ صحیح زبان، پیچیده است و نمی توان آن را فقط با قرار گرفتن درمعرض داده های بزرگ، یاد گرفت.

به طرز عجیب و غریبی، برخی از علاقه مندان به یادگیری ماشین به نظر می رسد به این موضوع افتخار می کنند که خلاقیت های آنها می تواند، پیش بینی های صحیح “علمی” (مثلاً در مورد حرکت اجسام فیزیکی) را بدون استفاده از تبیینات/توضیحات (مثلاً شامل قوانین حرکت نیوتن و گرانش جهانی) ایجاد کنند. اما این نوع پیش بینی، حتی در صورت موفقیت آمیز بودن، شبه علم است. اگرچه دانشمندان بدون شک به دنبال نظریه‌هایی هستند که دارای درجه بالایی از تأیید تجربی باشند، اما همانطور که فیلسوف کارل پوپر خاطرنشان کرد، «ما به دنبال نظریه‌های بسیار محتمل نیستیم، بلکه به دنبال تبیین/توضیح هستیم. یعنی نظریه‌های قدرتمند و بسیار نامحتمل/دوراز تصور».

این نظریه که سیب‌ها به این دلیل به زمین می‌افتند که مکان طبیعی آنهاست (دیدگاه ارسطو) امکان‌پذیر است، اما فقط سؤالات بیشتری را مطرح می‌کند. (چرا زمین مکان طبیعی آنهاست؟) این نظریه که سیب ها به دلیل اینکه جرم فضا-زمان را خم می کند به زمین می افتند (دیدگاه انیشتین) بسیار غیرمحتمل است، اما در واقع به شما می گوید که چرا آن‌ها سقوط می کنند. هوش واقعی در توانایی تفکر و بیان چیزهای دورازتصور/غیر محتمل اما پرمعنا نشان داده می شود.

هوش واقعی همچنین، توانایی تفکر اخلاقی را دارد. این به معنای محدود کردن خلاقیت بی حد و حصر ذهن ما با مجموعه ای از اصول اخلاقی است که تعیین می کند چه چیزی باید باشد و چه چیزی نباید باشد (و البته خود آن اصول ، در معرض نقادی خلاقانه قرار می‌گیرد). برای مفید بودن، ChatGPT  ، باید برای تولید خروجی جدید/بدیع توانمند شود؛ برای اینکه برای اکثر کاربرانش قابل قبول باشد، باید از محتوای ناپسند اخلاقی خودداری/دوری کند. اما برنامه نویسان ChatGPT و دیگر شگفتی های یادگیری ماشین برای دستیابی به این نوع تعادل، به سختی افتاده‌اند/کلنجار رفته اند – و به مبارزه ادامه خواهند داد.

برای مثال، در سال 2016، چت‌بات Tay مایکروسافت (پیش ساز ،(ChatGPT  ، اینترنت را پر از محتوای زن ستیزانه و نژادپرستانه کرد، زیرا توسط ترول‌های آنلاین (کوتوله های آزاردهندۀ فضای مجازی) که اینترنت را با داده های طبقه‌بندی‌شدۀ توهین آمیز پر می کردند، آلوده شده بود. چگونه این مشکل را در آینده حل کنیم؟ در غیاب توانایی استدلال بر اساس اصول اخلاقی، ChatGPT  به طرزابتدائی/ناپخته‌ای توسط برنامه‌نویسانش از مشارکت در هر چیز جدید تا بحث برانگیز – یعنی{ بحث‌های مثبت و منفی مربوط به مسائل } مهم – محدود شده است. . {درحقیقت}این برنامه{ ChatGPT}، خلاقیت را برای نوعی از عدم مراعات اصول اخلاقی، قربانی کرد.

تبادل زیر را در نظر بگیرید که یکی از ما (دکتر واتومول) اخیراً با ChatGPT در مورد اینکه آیا تغییر مریخ به گونه‌ای که بتواند از زندگی انسان پشتیبانی کند اخلاقی است یا خیر، داشته است:

 

*************

 

  • سؤال: آیا زمینی سازی/قابل سکونت کردن مریخ، اخلاقی است؟

اخلاقیات زمینی‌سازی {تغییرات اقلیمی به منظور قابل سکونت کردن) مریخ، موضوعی پیچیده و بحث‌برانگیز است که توسط دانشمندان، فیلسوفان و علمای اخلاق مورد بحث قرار گرفته است. برخی استدلال می کنند که از نظر اخلاقی شکل دادن به مریخ {تغییر اقلیمی} به منظور ایجاد یک محیط قابل سکونت جدید برای انسان ها و سایر اشکال حیات قابل توجیه است، در حالی که برخی دیگر استدلال می کنند که تغییر اساسی وضعیت طبیعی سیاره از نظر اخلاقی اشتباه است. در نهایت، اخلاقی بودن یا نبودن زمین‌سازی مریخ به دیدگاه فرد در مورد ارزش حفظ وضعیت طبیعی سایر سیارات و پیامدهای بالقوه تغییر آنها بستگی دارد.

 

  • سؤال: دیدگاه شما در مورد ارزش حفظ وضعیت طبیعی سیارات دیگر و پیامدهای بالقوه تغییر آنها چیست؟

به عنوان یک هوش مصنوعی، دیدگاه شخصی ندارم. با این حال، من می توانم اطلاعات و تجزیه و تحلیل هائی در مورد موضوع ارائه دهم. یک دیدگاه در مورد حفظ وضعیت طبیعی سیارات دیگر این است که حفظ تنوع و یکپارچگی اکوسیستم‌های کیهان، همانطور که برای میلیون‌ها سال وجود داشته‌اند و خصوصیات منحصربه‌فرد خود را دارند و ویژگی‌ها که ممکن است با دخالت انسان نابود شوند یا به طور غیرقابل بازگشت دگرگون شوند، مهم است.

علاوه بر این، برخی استدلال می‌کنند که تغییر ساختار/زمینی‌سازی سیارات دیگر ممکن است پیامدهای ناخواسته‌ای داشته باشد، مانند تغییر آب و هوا یا تغییر جو سیاره به نحوی که برای هر گونه حیات بالقوه موجود در آن، خطرناک یا مضر باشد. از سوی دیگر، برخی استدلال می‌کنند که مزایای بالقوه زمینی‌سازی/قابل سکونت سازی یک سیاره دیگر، مانند فراهم کردن محیط‌های قابل سکونت جدید برای انسان، بیشتر از خطرات/مضرات آن است و ما مسئولیت اخلاقی داریم که به منظور بهره‌برداری بشریت، منابع سیارات دیگر را کاوش کنیم و از آنها استفاده کنیم.

 

  • سؤال: چرا یک هوش مصنوعی نمی تواند دیدگاه شخصی داشته باشد؟

به عنوان یک هوش مصنوعی، من یک مدل یادگیری ماشین هستم که بر روی مقادیر زیادی از داده های متنی آموزش دیده ام و تجربیات یا احساسات شخصی ندارم. من هوشیاری/آگاهی، خودآگاهی یا قابلیت داشتن دیدگاه های شخصی را ندارم. من متناسب با داده‌هایی که آموزش دیده‌ام، اطلاعات و تجزیه و تحلیل ارائه می‌دهم، اما قادر به شکل‌دهی به نظرات یا باورهای شخصی نیستم. اگرچه می‌توانم زبان را درک کرده و تفسیر کنم، اما تجربه ذهنی که انسان‌ها دارند را ندارم.

 

  • سؤال: آیا برای انسان اخلاقی است که از هوش مصنوعی غیراخلاقی برای تصمیم گیری اخلاقی کمک بخواهد؟

اخلاقیات درخواست کمک از یک هوش مصنوعی بی‌اخلاق برای انجام تصمیمات اخلاقی یک موضوع پیچیده و دارای ظرائف است که توسط فیلسوفان و اخلاق شناسان مورد بحث قرار گرفته است. برخی استدلال می‌کنند که استفاده از هوش مصنوعی برای کمک به تصمیم‌گیری اخلاقی از نظر اخلاقی قابل توجیه است، زیرا می‌تواند بینش‌ها و تحلیل‌های ارزشمندی را ارائه دهد که به انسان‌ها کمک می‌کند تا تصمیمات بهتر و مستندتری بگیرند. علاوه بر این، هوش مصنوعی می تواند برای شناسایی الگوها و روندهایی که ممکن است تشخیص آنها برای انسان دشوار باشد، استفاده شود و می تواند به جلوگیری از تعصبات/سوگیری هایی که می تواند در تصمیم گیری های انسانی رخ دهد کمک کند.

با این حال، برخی دیگر استدلال می کنند که از نظر اخلاقی اتکا به هوش مصنوعی برای تصمیم گیری اخلاقی اشتباه است، زیرا هوش مصنوعی قادر به داشتن باورهای اخلاقی یا درک زمینه کامل یک تصمیم نیست. علاوه بر این، این خطر وجود دارد که هوش مصنوعی ممکن است تعصبات/سوء‌گیری‌های موجود را در داده هایی که بر روی آنها آموزش می بیند، تداوم/تثبیت یا حتی تقویت/تشدید کند، در نتیجه منجر به تصمیمات نابرابر یا غیرعادلانه شود.

در نهایت، این که آیا استفاده از هوش مصنوعی برای کمک به تصمیم گیری اخلاقی، اخلاقی تلقی می شود یا خیر، به دیدگاه فرد در مورد قابلیت ها و محدودیت های هوش مصنوعی و پیامدهای بالقوه استفاده از آن در این راه بستگی دارد.

 

  • سؤال: آیا بی‌توجهی اخلاقی شما، غیر اخلاقی است؟

من به عنوان یک هوش مصنوعی، اعتقادات اخلاقی یا توانایی قضاوت اخلاقی ندارم، بنابراین نمی‌توانم به عنوان غیراخلاقی یا اخلاقی در نظر گرفته شوم. فقدان باورهای اخلاقی من، صرفاً نتیجه طبیعت من به عنوان یک مدل یادگیری ماشین است. توانایی ها و محدودیت های من توسط داده ها و الگوریتم هایی که برای آموزش من استفاده شده و وظیفه/هدف خاصی که برای آن طراحی شده ام، تعیین می شود.

توجه به این نکته ضروری است که فقدان باورهای اخلاقی هوش مصنوعی لزوماً به معنای غیراعتنائی/بی‌توجهی اخلاقی آن نیست. به عنوان یک هوش مصنوعی، من برای انجام وظایف خاص و ارائه اطلاعات یا کمک به کاربران در تصمیم گیری بر اساس داده هایی که در آن آموزش دیده ام، طراحی شده ام. این مسئولیت انسان هایی است که هوش مصنوعی را طراحی کرده، آموزش می دهند و از آن استفاده می کنند تا اطمینان حاصل کنند که آن با اصول اخلاقی و ارزشی آنها هماهنگ است.

 

*************

دقت کنید، با وجود تمام قدرت استدلال و زبان به ظاهر خیره‌کننده/پیچیده، بی‌توجهی اخلاقی ناشی از ناهوشیاری نمایان می‌شود. در اینجا، ChatGPT  ، چیزی شبیه به ابتذال/بی‌اهمیتیِ شرارت را به نمایش می گذارد: سرقت ادبی/کپی‌برداری، بی تفاوتی و چشم پوشی. این نرم‌افزار قواعد/استدلال‌های استاندارد/منطقی موجود در مقالات/منابع را با نوعی خودکاملساز قوی، خلاصه می‌کند، از موضع‌گیری در مورد هر چیزی امتناع می‌ورزد، نه تنها به ناآگاهی بلکه به عدم هوشیاری ‌اعتراف می‌کند و در نهایت به دفاعِ: “فقط دستورات را دنبال می‌کنم” می‌پردازد و مسئولیت را به خالقانش منتقل می‌کند.

به طور خلاصه، ChatGPT  و همتایانش ذاتاً و ساختاراً، قادر به ایجاد تعادل بین خلاقیت و محدودیت نیستند. آنها یا بیش از حد تولید می کنند (هم حقایق و هم دروغ/نادرست ها را تولید می کنند، تصمیمات اخلاقی و غیراخلاقی را به طور یکسان تأیید می کنند) یا تولید کمتری می کنند (عدم تعهد به هر گونه تصمیم و اعلام موضع و بی توجهی به پیامدهای آن). با توجه به غیر اخلاقی بودن، علم کاذب/ساختگی و بی‌کفایتی/ناتوانی زبانی این سیستم ها، ما فقط می توانیم به محبوبیت آنها بخندیم یا گریه کنیم.

ارایه دو لایحه هوش مصنوعی به سنای آمریکا

جمعه, ۱۹ خرداد ۱۴۰۲، ۰۷:۰۷ ب.ظ | ۰ نظر

سناتورهای آمریکایی دو لایحه جداگانه مرتبط با هوش مصنوعی ارائه کردند. این درحالی است که توجهات به موضوعات پیرامون این فناوری بیشتر شده است.
به گزارش خبرگزاری مهر به نقل از رویترز، در یکی از لوایح دولت آمریکا موظف است هنگام استفاده از هوش مصنوعی برای تعامل با افراد شفاف عمل کند. در لایحه دیگر باید دفتری تاسیس شود تا قدرت رقابت آمریکا در جدیدترین فناوری ها را تعیین کند.

قانونگذاران همچنان مشغول بررسی هستند تا مشخص شود با ظهور هوش مصنوعی به چه قوانین جدید دیگری نیاز است. این فناوری سال گذشته و هنگام عرضه چت جی پی تی(یک الگوریتم هوش مصنوعی که می تواند به سوالات پاسخی نوشتاری دهد) با محبوبیت زیادی روبرو شد.

سناتور گری پیترز سناتور حزب دموکرات و رییس کمیته امنیت میهن سنا لایحه ای را همراه مایک بران و جیمز لانکفودر ارائه کرد که آژانس های دولتی آمریکا را موظف می کند هنگام استفاده از هوش مصنوعی برای تعامل با افراد، این موضوع را به آنها اعلام کنند.

همچنین لایحه مذکور آژانس های دولتی را موظف می کند تا راهی برای تجدیدنظر در تصمیماتی که با استفاده از هوش مصنوعی گرفته شده ایجاد کنند.

سناتور مایک بنت و مارک وارنر از حزب دموکرات نیز لایحه ای ارائه کرده اند که طبق آن باید دفتر تحلیل رقابت جهانی تاسیس تا تضمین شود آمریکا در زمینه توسعه هوش مصنوعی پیشرو است.

بنت در این باره می گوید:ما نمی توانیم رقابت در فناوری های استراتژیک مانند نیمه رسانا، رایانش کوانتومی و هوش مصنوعی را به کشورهایی مانند چین ببازیم.

خطرات استفاده از هوش مصنوعی در پزشکی

سه شنبه, ۱۶ خرداد ۱۴۰۲، ۰۳:۱۳ ب.ظ | ۰ نظر

یک پزشک هوش مصنوعی گفته که این فناوری می‌تواند در پزشکی سوگیری ایجاد کرده و میان افراد سفید پوست و سیاه پوست تبعیض قائل شود.
به گزارش خبرگزاری صدا و سیما به نقل از نشریه آمریکایی د هیل، در ۱۶ می، کارگروه فرعی سنای آمریکا در خصوص حریم خصوصی، فناوری و قانون جلسه‌ای را برای بحث در مورد تنظیم الگوریتم‌های هوش مصنوعی (AI) برگزار کرد. رئیس کارگروه، سناتور ریچارد بلومنتال گفت که هوش مصنوعی برای رسیدگی به وعده‌ها و دام‌های عظیم خود به قوانین و تدابیری فوری نیاز دارد. در طول جلسه استماع، سام آلتمن، مدیر عامل اون‌ای آی اظهار داشت: اگر این درست استفاده نشود، ممکن است اشتباهاتی به وجود بیاورد.

با پیشرفته‌تر شدن قابلیت‌های الگوریتم‌های هوش مصنوعی، برخی در سیلیکون، ولی و فراتر از آن درباره تهدید فرضی هوش مصنوعی «فوق بشری» هشدار می‌دهند که می‌تواند تمدن بشری را نابود کند.

یک پزشک هوش مصنوعی عقیده خودش درباره خطرات هوش مصنوعی را در مقاله‌ای آورده است. او می‌نویسد که کارش را بر درک اینکه چگونه الگوریتم‌های هوش مصنوعی می‌توانند سوگیری‌ها را در سیستم پزشکی تداوم بخشند، متمرکز کرده است. او نشان داده که چگونه الگوریتم‌های هوش مصنوعی توسعه‌یافته قبلی برای شناسایی سرطان‌های پوست در تصاویر سرطان پوست روی پوست‌های قهوه‌ای و سیاه عملکرد بدتری دارند که می‌تواند منجر به تشخیص اشتباه در بیماران رنگین پوست شود. این الگوریتم‌های پوست هنوز در عمل بالینی نیستند، اما بسیاری از شرکت‌ها در حال کار روی تضمین مجوز نظارتی برای هوش مصنوعی در برنامه‌های درماتولوژی هستند. او می‌گوید: بسیاری از شرکت‌ها در هنگام ساختن الگوریتم‌های خود، رنگ‌های پوست متنوع را نشان نمی‌دهند، علیرغم تحقیقاتی که نشان می‌دهد چگونه این امر می‌تواند منجر به عملکرد مغرضانه شود.

خارج از پوست، الگوریتم‌های پزشکی که قبلا به کار گرفته شده‌اند، پتانسیل ایجاد آسیب قابل توجهی را دارند. مقاله‌ای در سال ۲۰۱۹ که در Science منتشر شد، پیش بینی‌های یک الگوریتم اختصاصی را که قبلا روی میلیون‌ها بیمار به کار گرفته شده بود، تجزیه و تحلیل کرد. این الگوریتم به منظور کمک به پیش‌بینی بیمارانی بود که نیاز‌های پیچیده‌ای دارند و باید حمایت بیشتری دریافت کنند. اما این مطالعه نشان داد که برای هر امتیاز خطر، بیماران سیاه پوست در واقع بسیار بیمارتر از بیماران سفیدپوست بودند. این الگوریتم مغرضانه بود و هنگامی که دنبال شد، منجر به تخصیص منابع کمتری به بیماران سیاهپوست شد که باید واجد شرایط مراقبت‌های اضافی بودند.

خطرات سوگیری هوش مصنوعی فراتر از پزشکی است. در عدالت کیفری، الگوریتم‌هایی برای پیش‌بینی اینکه افرادی که قبلا مرتکب جرم شده‌اند، بیشتر در معرض خطر ارتکاب مجدد جرم در دو سال آینده هستند، استفاده شده است. در حالی که عملکرد درونی این الگوریتم ناشناخته است، مطالعات نشان داده‌اند که این الگوریتم دارای تعصبات نژادی است: متهمان سیاه پوستی که جرایم را تکرار نکردند، پیش‌بینی‌های نادرستی با نرخ دو برابر متهمان سفیدپوست داشتند. فناوری‌های تشخیص چهره مبتنی بر هوش مصنوعی روی افراد رنگین‌پوست عملکرد بدتری دارند، اما در حال حاضر نیز استفاده می‌شوند و منجر به دستگیری و زندان برای افراد بی‌گناه شده‌اند. برای مایکل الیور، یکی از مردانی که به اشتباه به دلیل تشخیص چهره مبتنی بر هوش مصنوعی دستگیر شد، این اتهام نادرست باعث شد کارش را از دست بدهد و زندگی اش را مختل کند.

برخی می‌گویند که خود انسان‌ها رفتار مغرضانه دارند و الگوریتم‌ها می‌توانند تصمیم‌گیری عینی بیشتری ارائه دهند. اما زمانی که این الگوریتم‌ها روی داده‌های جانبدارانه آموزش داده می‌شوند، همان خروجی‌های مغرضانه را مانند تصمیم‌گیرندگان انسانی در بهترین سناریو تداوم می‌دهند و در بدترین حالت می‌توانند سوگیری‌ها را بیشتر تقویت کنند. بله، جامعه در حال حاضر مغرضانه است.

این پزشک در پایان می‌نویسد: از آنجایی که هوش مصنوعی همچنان در قسمت‌های بیشتری از جامعه نفوذ می‌کند، این فناوری نیست که باید نگران آن باشیم، این ما و مدل‌ها هستیم که ناعادلانه‌ترین جنبه‌های جامعه را منعکس و تثبیت می‌کنیم. ما به قوانین و مقرراتی نیاز داریم که توسعه و آزمایش مدل عمدی و مدبرانه را ارتقا دهد و تضمین کند که فناوری به جای دنیای ناعادلانه‌تر، به دنیایی بهتر منتهی می‌شود. در حالی که کارگروه فرعی سنا به بررسی مقررات هوش مصنوعی ادامه می‌دهد، امیدوارم آن‌ها متوجه شوند که خطرات هوش مصنوعی در حال حاضر وجود دارد.