ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

  عبارت مورد جستجو
تحلیل وضعیت فناوری اطلاعات در ایران

۵۴۸ مطلب با کلمه‌ی کلیدی «هوش مصنوعی» ثبت شده است

تحلیل


گزارش تازه موسسه تحلیلی ولز فارگو گزارش کرده که تا سال 2030 میلادی، نزدیک به 200 هزار شغل در صنعت بانکداری ایالات متحده در معرض حذف به دلیل توسعه هوش مصنوعی خواهد بود.
فناوران- مایک مایو، تحلیلگر ارشد صنعت بانکداری در موسسه ولز فارگو (Wells Fargo) که گزارش 200 صفحه ای این موسسه زیر نظر او تدوین شده است، می گوید: این بزرگ ترین تعدیل نیروی انسانی در تاریخ بانکداری ایالات متحده خواهد بود.
البته ولز فارگو این گزارش را در اختیار رسانه ها قرار نداده است.
مایو می افزاید: امروزه مشخص شده است که فناوری می تواند عامل بزرگ ترین جایگزینی سرمایه به جای نیروی کار باشد و بانک ها با هزینه کرد در زمینه فناوری از هزینه های غیر فناورانه خواهند کاست.
وی می گوید: پیش بینی های ما حاکی است که کاهش نیروی انسانی از همین ماه آغاز خواهد شد و این پیش بینی می تواند با گزارش های مالی سه ماهه سوم بانک های منطقه ای، فرامنطقه ای و ملی، هم زمان باشد.
به گفته مایو، مشوق اصلی این رویکرد، نیاز بی سابقه بانک ها به کاهش هزینه ها و در مقابل افزایش بهره وری است. مهم ترین مساله نیز در این زمینه، هزینه های نیروی انسانی است که نیمی از کل هزینه های بانک ها را تشکیل می دهد.
به عقیده وی، کاهش نیروی انسانی یک پنجم تا یک سوم کارکنان بک آفیس، شعب، مراکز پاسخگویی و کارکنان سازمانی را دربرخواهد گرفت و مهم ترین واحدهایی که از تعدیل در امان خواهند بود شامل مشاغل مرتبط با فناوری، فروش و مشاوره می شود.


 تحول در راه است
در دو سال گذشته، هولدینگ بانکی BB&T Corp رویکردی دیجیتالی را در پیش گرفته که بر اساس آن، از هوش مصنوعی و روباتیک در بخش های بک آفیس، خدمات مشتریان و عملیات انطباق استفاده می کند.
برنامه این بانک که ابتدا «متحول شو یا بمیر» نام داشت و سپس نامش کمی تعدیل شد و به شکل «نوآوری کن و شکوفا شو» درآمد، در فاز پایانی خود قرار دارد.
پروژه مذکور در این هولدینگ بانکی از اواخر سال 2016 میلادی منجر به کاهش 6.5 درصدی نیروی انسانی (به میزان 2439 شغل) و 18.6 درصدی تعداد شعب (409 شعبه) شده است. BB&T در سال 2018 نیز تعداد 654 نفر را از طریق خرید موسسات بیمه منطقه ای به کارکنان خود افزوده است.
کلی کینگ، رییس هیات مدیره و مدیر ارشد اجرایی این بانک در آوریل 2017 در معرفی این برنامه گفت: ما روی بهبود هزینه های عملیاتی از طریق استفاده از هوش مصنوعی و روباتیک سرمایه گذاری می کنیم که فرصتی بزرگ برای ما و سایر بانک ها خواهد بود.
وی افزود: ما در این زمینه کاملا مصمم هستیم و عقیده داریم که با این کار راه های زیادی برای کاهش هزینه ها پیدا خواهد شد.
این ابتکار عمدتا بر اختصاص منابع به پلتفرم های دیجیتال شبکه فناوری اطلاعات بانک، کاهش تعداد شعب، افزایش هزینه کرد در بانکداری اجتماعی و اتکا به رشد طبیعی و تثبیت هزینه ها متمرکز است.
این هولدینگ چندی پیش هم در قراردادی 66 میلیارد دلاری با هولدینگ بانکی SunTrust ادغام شد که به گفته کینگ؛ نه تنها این ادغام ماهیتی استراتژیک داشته، بلکه اقدامی ضروری و مهم در فلسفه نوآوی کن و شکوفا بمان بوده است. BB&T به همراه ولز فارگو و سایر بانک های منطقه ای و فرامنطقه ای صدها میلیون دلار روی فناوری هایی هزینه می کنند که معتقدند از محل داده کاوی از رفتارهای مشتریان، برای آنها کاهش هزینه های چشم گیری را به همراه خواهد داشت.
مایو برآورد می کند که مجموع هزینه کرد شرکت های مالی بزرگ به 150 میلیارد دلار در سال می رسد. وی می گوید که اگر بانک ها بخواهند از فناوری برای رشد سریع تر درآمدها نسبت به هزینه ها به ویژه در محیط دشوار اقتصادی بهره بگیرند، باید به سوی هوش مصنوعی بروند. البته یک تهدیدهایی هم در این مسیر وجود دارد که از آن جمله می توان به قدیمی بودن زیرساخت ها، هزینه های پیش بینی نشده و ریسک های جدیدی که خود فناوری به وجود می آورد، اشاره کرد.


 نظر بانک مرکزی آمریکا
هیات پایداری اقتصادی بانک مرکزی ایالات متحده (فدرال رزرو) در ماه نوامبر گذشته در گزارشی، 4 حوزه ای را که هوش مصنوعی روی صنعت بانکداری تاثیر می گذارد، به این شرح اعلام کرد:
خدمات سمت مشتری می توانند مجموعه داده های مشتریان را با الگوریتم های جدید برای بررسی اعتبار یا سیاست های بیمه ای ترکیب کنند. چت بات ها قادر به ارایه کمک و حتی مشاوره مالی به مشتریان هستند که به کاهش زمان انتظار آنها برای صحبت با یک اپراتور انسانی می انجامد.
ظرفیت هوش مصنوعی برای تقویت عملیات بک آفیس، از جمله مدل های پیشرفته برای بهینه سازی سرمایه، مدل سازی مدیریت ریسک، تست حساسیت و تحلیل تاثیر بازار به کار می آید. رویکردهای هوش مصنوعی می تواند در استراتژی های معاملات و سرمایه گذاری، از شناسایی سیگنال ها درباره تغییرات قیمتی تا استفاده از رفتارهای معاملاتی گذشته برای پیش بینی سفارش بعدی مشتری، به کار گرفته شود.
توسعه هوش مصنوعی در انطباق و کاهش ریسک در زمینه هایی مانند  تشخیص تقلب، بهینه سازی سرمایه و مدیریت پرتفوی کارآمد خواهد بود.
البته این هیات در فدرال رزرو هشدار داده که رشد استفاده از هوش مصنوعی سوالاتی را هم در زمینه ریسک های احتمالی متوجه امنیت بانک ها، محافظت از مشتری با سیستم های مالی را به دنبال خواهد داشت.
از سوی دیگر، محققان می گویند که اتوماسیون سازی و هوش مصنوعی، زمینه ساز دورانی دشوار برای نیروی کار خواهند که شد و حتی اگر تعداد کلی مشاغل ثابت بماند، جابه جایی های متعددی در نیروی کار شاهد خواهیم بود.

گوگل شورای اخلاق هوش مصنوعی را منحل کرد

دوشنبه, ۱۹ فروردين ۱۳۹۸، ۰۲:۲۶ ب.ظ | ۰ نظر

گوگل 26 مارس یعنی ۶ فروردین شورایی را تشکیل داد تا به بررسی مسایل اخلاقی مربوط به پروژه های هوش مصنوعی بپردازد و حالا بعد از گذشت تنها چند روز خبر انحلال این شورا منتشر شده است.
فناوران - TechSpot- چند روز پیش گوگل به شورای مشاوران خارجی فناوری‌های پیشرفته اعلام کرد که این شورا را منحل خواهد کرد. دلیل این امر نیز اعتراضات گسترده نسبت به عضویت برخی افراد در این شورا است.
این هیات نظارت که Advanced Technology External Advisory Council یا به اختصار (ATEAC) نام داشت، مسوول بررسی اخلاقیات در رابطه با هوش مصنوعی، آموزش ماشین و تشخیص چهره بود و گوگل آن را برای ارایه راهنمایی درباره مسایل اخلاقی هوش مصنوعی، خودکارسازی و فناوری‌های مرتبط با آن راه‌اندازی کرده بود. از جمله اعضای این شورای هشت ‌نفره، می‌توان به قائم ‌مقام سابق وزیر امور خارجه ایالات متحده آمریکا و یک دانشیار دانشگاه Bath اشاره کرد. این شرکت گفته بود که گروه مورد نظر به برخی از پیچیده‌ترین چالش‌های گوگل رسیدگی خواهد کرد. این در حالی بود که گوگل چندی پیش زیر فشارهای داخلی و خارجی درباره چگونگی برنامه‌ریزی‌اش برای استفاده از فناوری‌های در حال ظهور قرار گرفته بود. از جمله این فناوری‌ها می‌توان به تشخیص چهره و سوگیری الگوریتمی اشاره کرد.
در ژوئیه ۲۰۱۸ این شرکت اعلام کرد که قراردادش با پنتاگون در حوزه فناوری هوش مصنوعی برای هدایت پهپادها را تمدید نخواهد کرد. پروژه Maven  در میان کارمندان گوگل نامحبوب بود و موجب شد تا برخی از کارمندان این شرکت استعفا دهند. در واکنش به این اتفاق گوگل مجموعه‌ای از اصول هوش مصنوعی را منتشر کرد که گفته شده آنها را مد نظر قرار می‌دهد. این اصول، تعهداتی چون مفید برای جامعه و پاسخگو به مردم را شامل می‌شوند. گوگل در مورد منحل کردن این شورا در بیانیه‌ای اعلام کرد: معلوم شد که در فضای کنونی، ATEAC قادر نیست مطابق انتظار ما عمل کند. بنابراین آن را منحل کردیم و به سراغ گروه طراحی رفتیم. ما مسوولیت اقدامات خود را در رابطه با مسائل مهمی که در مورد هوش مصنوعی پیش می‌آید بر عهده می‌گیریم و شیوه جایگزینی را برای دریافت نظرات خارجی درباره این موضوعات به‌کار می‌بریم.

یک وب سایت اینترنتی استفاده از هوش مصنوعی را برای تولید و نمایش تعداد انبوهی از چهره های قلابی آغاز کرده است. این چهره ها هیچ تفاوتی با چهره های واقعی انسان ها ندارند.

به گزارش خبرگزاری مهر به نقل از انگجت، فیلیپ ونگف یک توسعه دهنده و برنامه نویس تحت وب است که سایتی به نام «این شخص وجود ندارد» را به آدرس thispersondoesnotexist.com راه اندازی کرده است. با ورود به این سایت هر بار چهره انسانی به نمایش درمی آید که کاملا واقعی است، اما در عمل وجود ندارد. با هر بار تازه کردن یا رفرش کردن صفحه نیز چهره جدیدی به کاربر نشان داده می شود.

سایت یادشده هر بار زن یا مردی را نشان می دهد که هر یک از آنها از نظر سن، نژاد و غیره با یکدیگر تفاوت دارند. اما کاربر نمی تواند تشخیص دهد چهره ای که در حال مشاهده آن است غیرواقعی است.

در سایت مذکور از یک شبکه هوش مصنوعی تولید شده توسط شرکت ان ویدیا استفاده شده که از الگوریتمی خاص برای ارتقای نتایج به نمایش درآمده استفاده می کند. این الگوریتم از قابلیت خود آموزی برای ارتقای توانایی های خود برخوردار است.

در برخی موارد تعدادی از چهره های به نمایش درآمده در بخش هایی از صورت و به خصوص چشم ها دارای مشکلاتی هستند، اما طراح این سایت می گوید مشکل یادشده با استفاده از پردازنده های گرافیکی قدرتمندتر و گران قیمت تر ان ویدیا قابل حل است. از این فناوری می توان برای طراحی و نمایش انواع ابزار و اقلام قلابی دیگر هم استفاده کرد

چین: هوش مصنوعی شاید به جنگ جهانی بینجامد

چهارشنبه, ۲۴ بهمن ۱۳۹۷، ۰۱:۴۷ ب.ظ | ۰ نظر

نسترن صائبی - کارشناسان و سیاستمداران چین اظهار نگرانی کرده اند که مبادا یکپارچه شدن هوش مصنوعی با تسلیحات و تجهیزات نظامی تصادفا آنها را به جنگ ناخواسته بین المللی بکشاند.
براساس گزارش اندیشکده سازمان امنیت ملی آمریکا(CNAS)، مقامات چینی معتقدند که استفاده از هوش مصنوعی در سلاح​های نظامی تهدیدی جدی برای صلح جهانی به شمار می​رود. چین معتقد است که بیم آن می​رود کشورهایی که در تلاش برای به دست آوردن مزایای استفاده از هوش مصنوعی در زمینه​های مختلف از جمله ارتش هستند، در نهایت بر گفتمان بین​المللی آنها تاثیر بگذارد و منجر به نزاع و کشمکش​های جهانی می​شود. 
گریگوری آلن، عضو ارشد سازمان امنیت آمریکا و نویسنده این گزارش، می​گوید: در سال​های اخیر، اپراتوری پهپادها چه از نوع بزرگ آنها و چه از نوع کوچک، روز به روز به سمت خودران شدن پیش می​رود. در آمریکا، پهپادها اساسا به صورت خودران طراحی می​شوند و کارهای ساده​ای مانند پرواز حول یک هدف را به صورت خودکار انجام می​دهند. اما چین همیشه سعی دارد از آخرین حد یک دستاورد استفاده کند و در این مورد نیز  از هوش مصنوعی به صورت خطرناک​تری استفاده می​کند و برخی از پهپاد​های این کشور قادرند تا به هدف خود تیراندازی کنند و آنها را از پا در بیاورند. به عنوان مثال پهپاد Blowfish A2 که چین آن را به کشور​های دیگر صادر می​کند قادر است به اهدافی که برای آن تعیین می​شود، حمله کند.
از آنجا که هواپیماهای بدون سرنشین از راه دور کنترل می​شوند، نیروهای نظامی تمایل بیشتری نسبت به استفاده از آنها دارند و چون هیچ خطر و تلفات جانی برای انسان​ها ندارند، تمایل بیشتری برای شلیک کردن به آنها دارند و سعی می​کنند که نخستین تلاش آنها برای ایجاد جنگ و نزاع، جنگ آسمانی با این پهپادها باشد. این نگرش حتی در جنگ​افزارهای سایبری نیز به چشم می​خورد؛ جایی که کشورها به گونه​ای یکدیگر را تحت تاثیر قرار می​دهند که دخالت و حضور خود انسان​ها در آن ضروری نباشد و در واقع خود را پشت حصارهای مجازی پنهان می​کنند. 
آلن در این مورد می​گوید: در این نزاع​ها، روشن نیست که چگونه هر یک از طرفین رفتار می​کنند. ممکن است یک کشور یک هواپیمای بدون سرنشین به کشوری بفرستد و با خود فکر کند که این مساله مهمی نیست، زیرا هیچ ریسک و تلفات جانبی برایش ندارد، ولی مشخص نیست که در طرف دیگر چه اتفاقی رخ می​دهد و حتی ممکن است جان کسی گرفته شود. با این حال هیچ چارچوب توافقی در این مورد وجود ندارد که هدف ارسال یک پهپاد توسط یک طرف مشخص شود. خطرات چنین سناریویی زمانی بیشتر می​شود که عامل خودمختاری در ابزارها پیشرفته​تر می​شود. برای مثال، اگر یک پهپاد یا یک روبات برای اعلام هشدار به نیرو​های دشمن شلیک کند چه واکنشی نسبت به این موضوع نشان داده خواهد شد؟ چگونه این عمل تفسیر می​شود؟ آیا سربازان آن را به عنوان پاسخی خودکار درک می​کنند یا فکر می​کنند که این تصمیم یک فرمانده انسانی است؟ چگونه در هر کدام از این موارد باید واکنش نشان دهند؟


 درک استراتژی چین در قبال هوش مصنوعی 
در ادامه گزارش مرکز اندیشکده سازمان امنیت ملی آمریکا مساله​ای تحت عنوان «درک استراتژی چین در قبال هوش مصنوعی: سرنخ​هایی برای شناخت استراتژی چین در مورد هوش مصنوعی و امنیت ملی» مطرح شده است که در مورد بخشی از نگرانی​های سطح بالا و رفتارهای دولت چین در قبال هوش مصنوعی می​پردازد. 
در جایی از این گزارش عنوان شده که مسوولان چین بر این عقیده​اند که آنها و ایالات متحده تنها ابرقدرت​های جهان هستند که توانایی بهره​برداری از هوش مصنوعی در تجهیزات نظامی را دارند. اما تفاوت​هایی در میان داشته​های این دو کشور وجود دارد. مثلا کشور چین دسترسی گسترده​تری به اطلاعات دارد و می​تواند در یک چشم به هم زدن گام​های بلندی در زمینه تکنولوژی بردارد. زیرا بسیاری از شهروندان چینی بدون اینکه خط تلفن ثابت داشته باشند، از گوشی موبایل استفاده می​کنند و این یعنی دریای عظیمی از اطلاعات. 
این در حالی است که آمریکا پیشگام بلامنازع فناوری تراشه است و پیشرفت​های این فناوری تمام و کمال در دستان این کشور است. تراشه قطعه​ای حیاتی در پردازش اطلاعات محسوب می​شود که می​تواند داده​های عظیمی را برای هوش مصنوعی تحلیل و پردازش کند. و بر همین اساس چین تمام سعی خود را می​کند تا این شکاف را پر کند. شرکت​های چینی مثل بایدو، علی​بابا و هواوی در سال​های اخیر پروژه​های جدیدی برای توسعه شتاب​دهنده​ها و سخت​افزارهای هوش مصنوعی تعریف کرده​اند و دولت این کشور نیز سرمایه هنگفتی را برای ابداعات در این زمینه هزینه کرده است. این صنعت تلاش می​کند تا روش های دیگری برای کسب تخصص در خارج از کشور پیدا کند که پیشنهاد خرید شرکت تراشه​ساز کوالکوم توسط شرکت سنگاپوری برودکام از این دست است که البته توسط دونالد ترامپ، رییس جمهور آمریکا به کلی مسکوت ماند. 
در واقع، آمریکا می​خواهد با حفظ کوآلکوم همچنان برتری خودش را در دنیا تراشه​ها به خصوص بخش موبایل حفظ کند، چیزی که چینی​ها به شدت نگران آن هستند و در صورت فروش کوآلکوم، آمریکا نمی​توانست در شبکه نسل پنجم که کوآلکوم یکی از پیشروان آن است، حرفی برای گفتن داشته باشد؛ در حالی که ترامپ در حال ساخت شبکه کاملا امن 5G برای دولت آمریکا با استفاده از مشارکت با کوآلکوم است و افتادن چنین شبکه ای به دست سنگاپوری​ها و گاها چینی​ها، همه چیز را خراب می​کرد.
اما با همه​ی این رقابت​ها، کارشناسان معتقدند که این دو ابرقدرت جهان نیاز است که برای جلوگیری از وقوع جنگ​های ناخواسته در دنیا با هم همکاری کنند. در حال حاضر چینی​ها اطلاعات کامل و بسیار دقیقی از تجهیزات ایالات متحده دارند در حالی که عکس این موضوع صادق نیست چراکه بسیاری از پرونده​های علمی چین اصلا به زبان انگلیسی ترجمه نمی​شوند.


 چشم​انداز چین در مورد اهمیت هوش مصنوعی
در گزارش CNAS در بخش چشم​انداز چین در مورد اهمیت هوش مصنوعی چندین مورد ذکر شده تا درک درستی از استراتژی چین در قبال این فناوری به دست دهد. سرفصل​های چشم​اندازهای چین در این گزارش به شرح زیر آمده است:
رهبران چین از جمله شی جین پینگ، رییس جمهور این کشور معتقد است که پیشرو شدن در فناوری هوش مصنوعی برای رقابت بر سر قدرت اقتصادی و نظامی جهانی امری ضروری است.  شی جین پینگ بر این باور است که چین باید در حوزه فناوری هوش مصنوعی پیشگام جهانی باشد و وابستگی آسیب​پذیر خود را در زمینه واردات فناوری بین​المللی روز به روز کاهش دهد.
اخیرا مقامات و دولتمردان چینی در انجمن​های دیپلماتیک در مورد تجهیزات نظامی مجهز به هوش مصنوعی اظهار نگرانی کرده​اند و خواستار هنجارهای جدید بین​المللی برای کنترل این فناوری شده​اند. 
برخلاف اظهار نگرانی​های چین در قبال تجهیزات مجهز به هوش مصنوعی، بیشتر مقامات این کشور در پی افزایش کاربری هوض مصنوعی در تجهیزات نظامی خود هستند و در این زمینه نیز به دستاوردهای بزرگی رسیده​اند. این کشور در حال حاضر تجهیزات نظامی مبتنی بر پلت​فرم​های خودمختاری و هوش مصنوعی به عنوان ابزار کنترل و نظارت به کشورهای دیگر صادر می​کند. 
وزارت دفاع ملی چین به تازگی دو سازمان تحقیقاتی جدید دایر کرده است که هر دوی این سازمان​ها روی هوش مصنوعی و سیستم​های خودمختار متمرکز شده​اند و زیر نظر دانشگاه ملی فناوری​های پدافند (NUDT) کار می​کنند. 
دولت چین به هوش مصنوعی به مثابه یک پیشرفت چشمگیر در ارتش خود نگاه می​کند و امیدوار است که ابزاراهی جنگی مبتنی بر این فناوری را به آمریکا بفروشد. 
دولت و صنعت چین معتقد است که در حال پر کردن شکاف میان این کشور و آمریکا در زمینه تحقیق و توسعه هوش مصنوعی و محصولات مبتنی بر هوش مصنوعی تجاری هستند. چین به هوش مصنوعی به عنوان یک گوی رقابت بین خود و آمریکا می​نگرد. 
موقعیت قوی چین در زمینه تحقیق و توسعه هوش مصنوعی و کاربردهای تجاری آن را قادر به دسترسی به بازارهای بین​الملل، فناوری و همکاری​های بین​المللی تحقیقاتی خواهد کرد. 
علیرغم قدرت چین در زمینه تحقیق و توسعه هوش مصنوعی و کاربردهای تجاری آن، رهبران چین هنوز تصور می​کنند که ضعف شدیدی در دسترسی به نخبگان، استانداردهای فنی، پلت​فرم​های نرم​افزاری و صنعت نیمه​هادی همانند آمریکا دارند.
رهبران چینی به دنبال راهی برای دسترسی به فناوری​های کشورهای خارجی آن هم در کوتاه مدت دارند و معتقدند که می​توانند در دراز مدت وابستگی​های خود به کشورهای دیگر را مرتفع سازند و این امر به هدف اصلی چین تبدیل شده است. 
 منبع: The Verge

(منبع:فناوران)

هوش مصنوعی غالب است یا مغلوب؟

شنبه, ۶ بهمن ۱۳۹۷، ۰۲:۴۵ ب.ظ | ۰ نظر

فناوران- هوش مصنوعی علم برنامه ریزی ماشین و کامپیوتر به منظور بازسازی یا شبیه سازی فرایندهای انسانی مثل یادگیری و تصمیم گیری است. پیشرفت های اخیر فنی مثل الگوریتم هوشمند که خود تصمیم می گیرد برای رسیدن به هدف چه کاری انجام دهد، باعث شده هوش مصنوعی نرم نرم و آرام آرام وارد زندگی روزمره ما شود. تلفن های هوشمند، هوشمندتر می شوند و خودروهای خودکار به زودی می تواند سلامت رانندگی در جاده ها را بیشتر کرده و بالقوه خطر اشتباهات انسانی را حذف کند.
هوش مصنوعی وعده دنیایی را می دهد که در آن روبات ها از بیماران مراقبت، یخچال ها را از مواد غذایی پر و برای تعطیلات ما برنامه ریزی می کنند.


 روبات ها، دوست یا دشمن نیروی کار انسانی؟
توان بازی کردن یکی از معیارهای حیاتی پیشرفت در هوش مصنوعی است که نشان می دهد آیا ماشین می تواند برخی اعمال فکری مشخص را بهتر از انسان به انجام برساند.
توانایی کامپیوتر در بازی استادانه شطرنج و اخیرا بازی گو Go که عالی ترین فرم بازی روی سطح دو بعدی است به منزله دستیافت های بزرگی در راه رسیدن به ماشین های هوشمند تلقی می شود. امروز در پزشکی نرم افزارهایی وجود دارد که قادرند مثل پزشک بیماری هایی مثل سرطان را تشخیص بدهند. 
هوش مصنوعی با این همه مزایا، مشکلاتی نیز به همراه داشته است: چگونه نیروی کار انسانی می تواند خود را با انقلاب چهارم صنعتی تطبیق دهد؟ روبات ها میلیون ها شغل را در سراسر جهان تهدید می کنند.
از نظر عده ای، کسانی که نسبت به پیشرفت فناوری های نوین بدبین هستند، هوش مصنوعی می تواند توانایی ها و هوش انسانی را دستکاری کند.


 ابرهوش ؛ همچنان در دوردست
گرچه ممکن است روبات های جراح و انسان نماهای نظامی به زودی واقعیت پیدا کنند، تا دستیابی به هوش فوق العاده (ابرهوش، فوق هوش) که بتواند با مغز انعطاف پذیر انسان برابری کند یا از آن بهتر باشد، هنوز خیلی مانده است. باید کارهای خیلی بیشتری انجام شود تا به روبات ها هوش اجتماعی داده شود و آنها بتوانند ظرایف تصمیم گیری های روزمره را دریابند.


 پدیده ای به نام روبات آزاری
به تازگی با اخباری از سرتاسر جهان مواجه می شویم که نشان از پدیده ای به نام آسیب به روبات ها دارد. اگر اخبار ماه گذشته را مرور کنیم، تیتر خبرها اینها بودند: سر روباتی را کنار جاده ای (هیچ بات) در فیلادلفیا بریدند؛ به روبات نگهبان در سیلیکون ولی حمله کردند؛ افرادی در سانفرانسیسکو به روبات نگهبان حمله کردند و سرتاپایش را با سس تنوری پوشاندند. 
سوالی که پیش می آید این است: چرا مردم به روبات ها، به ویژه روبات های انسان نما حمله می کنند؟ این پدیده مختص ایالات متحده آمریکا نیست؛ بلکه در همه نقاط جهان دیده می شود. برای مثال، در یکی از مراکز خرید در اوزاکا ژاپن، سه پسر با تمام توان به جان روبات انسان نما افتاده بودند. در مسکو نیز، مردی با چوب بیس بال به روباتی آموزگار به نام آلان تیم حمله کرد و روبات در حالی که روی زمین افتاده بود، تقاضای کمک می کرد.
اما واقعا چرا این رفتار از ما سر می زند؟ آیا مخفیانه از این موضوع می ترسیم که روبات ها شغل هایمان را بگیرند؟ آیا از این می ترسیم که جوامع ما را دگرگون کنند؟ از این می ترسیم که روبات ها در آینده تک تک حرکات ما را با توانایی های رو به رشدشان و حس شرورانه ای کنترل خواهند کرد؟ شاید همینطور باشد. 
توهم شورش به نوعی در خود کلمه روبات نهادینه شده است. 
کارل کاپک، نمایش نامه نویس اهل چک، این کلمه را برای اولین بار به منظور توصیف آدم های مکانیکی استفاده کرد. پیش از آن و در گذشته، از کلمه روبات برای اشاره به «سیستم بردگی قراردادی» استفاده می کردند. از همان زمان های دور، ترس از شورش بردگان در هنگام ادای کلمه روبات احساس می شد. سپس، این ترس به استفاده از خدمتکارهای مکانیکی نیز کشیده شد و اکنون نگرانی ها درباره قیام روبات ها در آینده، بیش از هر زمان دیگری احساس می شود.
آریستوتل جورجسون، کمدین شبکه های اجتماعی می گوید: ویدیو هایی که او از حمله مردم به روبات ها آپلود می کند، در میان محبوب ترین پست های اینستاگرامی اش قرار دارد. به گفته جورجسون، بیشتر بازخوردهای مخاطبان در بخش دیدگاه ها، بازتابی از ترس  آنها از شورش روبات ها است. 
جورجسون می افزاید: برخی افراد در بخش دیدگاه ها می گویند با کتک زدن روبات ها موافق هستند:
بعضی ها می گویند ما باید آنها را کتک بزنیم تا هیچ وقت خیال شورش به سرشان نزند. با این حال، گروه دیگری هستند که می گویند نباید این کار را بکنیم؛ چون وقتی روبات ها این ویدیو ها را ببینند، عصبانی می شوند.
آگنیشکا ویکوفسکا، دانشمند علوم اعصاب و رفتارهای شناختی و عضو هیات تحریریه مجله بین المللی روباتیک اجتماعی (International Journal of Social Robotics) معتقد است مخالفت انسان مقابل روبات انگیزه ها و شکل های مختلفی دارد، اما همه  آنها بازتابی از همان روشی هستند که انسان ها به یکدیگر صدمه می زنند. بدرفتاری با روبات ها شاید از همان روان شناسی قبیله ای نشات گرفته باشد؛ یعنی همان مفهوم خودی ها و غیرخودی ها. 
ویکوفسکا می گوید: شما مأموری دارید؛ روباتی که در شاخه ای جداگانه از انسان ها قرار گرفته است. بنابراین، ممکن است خیلی راحت درگیر مکانیزم روان شناختی طرد شوید؛ چون فکر می کنید  آنها خودی نیستند. این موضوعی است که باید درباره اش بحث کرد: غیرانسانی کردن روبات ها حتی درحالی که  آنها انسان نیستند. 
آنچه باعث تناقض می شود، این است که چرا ما باید هر روز سعی کنیم شکل و شمایل روبات هایمان را شبیه خودمان کنیم و آنها را انسان نماتر کنیم، ولی از سوی دیگر از این بترسیم که روبات ها به ما نزدیک تر شوند؟ در واقع، تمایلمان برای غیر انسانی کردن روبات ها از غریزه ما برای قایل شدن صفات انسانی به آنها سرچشمه می گیرد.
ویکوفسکا می گوید: این دشمنی با روبات ها که از تمایل به نسبت دادن صفات انسانی نشات گرفته ممکن است بازتاب دهنده سندرم فرانکشتاین باشد. ما از روبات ها می ترسیم، چون آنها را به خوبی درک نمی کنیم و چون کمی شبیه ما هستند، اما کاملا مثل ما نیستند.

تدوین دستورالعمل اخلاقی برای هوش مصنوعی

يكشنبه, ۲۵ آذر ۱۳۹۷، ۱۰:۱۳ ق.ظ | ۰ نظر

سه سازمان استرالیایی روز پنجشنبه اعلام کردند که بنا دارند با مشارکت یکدیگر نسبت به راه اندازی «سازمان گرادینت» به عنوان یک نهاد غیرانتفاعی اقدام کنند. این سازمان ابعاد اخلاقی هوش مصنوعی را مورد پژوهش قرار خواهد داد.
فناوران- این سازمان با سرمایه گذاری مشترک سازمان تحقیقات علمی و صنعتی کشورهای مشترک المنافع، دانشگاه سیدنی و گروه بیمه گذار استرالیا تاسیس شده و مدیر اجرایی آن بیل سیمپسون یوانگ خواهد بود. سیمپسون معتقد است که آثار هوش مصنوعی این روزها در گوشه و کنار زندگی روزانه ما دیده شود. وقتی مردم از هوش مصنوعی حرف می زنند، اغلب درباره یادگیری ماشینی حرف می زنند. اما یادگیری ماشینی تنها یک کاربرد هوش مصنوعی است. با این حال، سیستم ها در خلال تجربه می آموزند و رشد می کنند، بی آنکه توسط کاربران انسانی برنامه ریزی شده باشند. 
هوش مصنوعی این روزها هر لحظه در مقاله جدید و محصولی که به مصرف کننده توصیه می شود، به چشم می خورد. خیلی از شرکت ها از هوش مصنوعی برای فیلتر کردن نیروی متقاضی کار و خیلی از بانک ها از آن برای تصمیم گیری درباره نحوه وام دادن بهره می برند.
با در نظر گرفتن روند رو به رشد نفوذ هوش مصنوعی در همه جوامع، کارشناس بر این باورند که ایجاد دستورالعمل اخلاقی برای هوش مصنوعی ضروری به نظر می رسد. اهمیت این دستورالعمل ها این است که نوع بشر مجاب شود ماشینی شدن همه چیزها و رشد بی وقفه هوش مصنوعی در راستای منافع انسانی قرار دارد.
سیمپسون یوانگ می گوید: انسان ها هر روز تصمیم می گیرند و این تصمیم گیری های روزمره نیز بر بنیاد چارچوب اخلاق استوار است. ما هم اکنون در وضعیتی قرار گرفته ایم که این ماشین ها هستند که برای ما تصمیم می گیرند که روزانه باید چه خبری بخوانیم یا با چه کسی ملاقات کنیم. اما در حال حاضر هیچ چارچوب اخلاقی برای همین ماشین ها ترسیم نشده است. 
از رسیدن به یک اجماع اخلاقی در این حوزه که بگذریم دانشمندان مسیر طولانی و دشواری برای تنها فرموله کردن دستورالعمل های اخلاقی و کدنویسی و برنامه نویسی و اجرای آن پیش رو دارند.
مایکل هار، استاد ارشد دانشگاه نیز می گوید: یکی از سوال های کلیدی پیش روی ما این است که چگونه به طور اخلاقی انسان باشیم. ما به واقع نمی دانیم چه پاسخی به این سوال بدهیم. حالا اینکه بخواهیم هوش مصنوعی برای همه این سوال ها پاسخی داشته باشد هم بسیار سخت است. 
به گفته هار، گام نخست خلق مجموعه داده های بزرگ است از آنچه مردم از اخلاق انتظار دارند و گام بعدی می تواند شکل دادن به یک رویکرد باشد. هوش مصنوعی گفت وگوهای ما را کنترل می کند و در تلاش است تا بتواند به سوال هایی پاسخ دهد که ما به عنوان نوع بشر سال های سال دنبال پاسخی برای آن بوده ایم. 
سازمان گرادینت بنا دارد تا داده های مختلفی از شاخه های علمی متنوع از حقوق و علوم انسانی گرفته تا مهندسی و تحلیلگران داده را جمع آوری کرده و سامان دهد. 


 استراتژی های استفاده از هوش مصنوعی 
برای رفع نگرانی دنیا بابت سواستفاده های محتملی که به واسطه حضور پررنگ هوش مصنوعی در آینده وجود دارد، تنها در صورتی برطرف خواهد شد که کشورها قوانین و راهبردهای مناسبی برای به کارگیری این فناوری تصویب و تعیین کنند. برای نمونه در چین مرکزی برای تصویت و تدوین قوانینی در حوزه فناوری وجود دارد که وظیفه آن تعیین چهارچوب های عملی تکنولوژی است. موضوعات متعدد و متنوعی در حوزه فناوری و هوش مصنوعی وجود دارند که از نقطه نظر اخلاق قابل بررسی هستند.
برای مثال، حفظ حریم خصوصی به واسطه فناوری های تازه بیش از پیش حائز اهمیت خواهد شد. داده مهم ترین ابزار برای پیشبرد بهترین استارتاپ های فناوری و هوش مصنوعی است. در نتیجه شرکت های بزرگ برای رشد و توسعه فعالیت های خویش روی لبه باریکی راه می روند. لبه باریکی حفظ اخلاق و توسعه بیشتر در دو طرف آن قرار گرفته اند.
باید دید که کشورهای فعال در این زمینه چطور پایه و بنیان بهره مندی از هوش مصنوعی را پیش خواهند برد. برنامه هایی که چین برای شراکت و همکاری با سیلیکون ولی و سایر شرکت ها و استعدادهای مهم دنیا طراحی کرده است تا حد زیادی باعث امیدواری در این زمینه می شود اما آیا رقابتی که بر سر مزایای متعدد به کارگیری و رهبری هوش مصنوعی در جهان وجود دارد، اجازه تداوم دوستی ها و همکاری ها را به دولت های مختلف می دهد؟ باید همچنان صبر کرد. زیرا اقتصاد و سیاست همیشه بازی هایی پیش بینی نشده در آستین دارند. پیش بینی ها می تواند به وقوع نپیوندد. تنها نگاهی که می توان به آینده داشت، در نظر گرفتن سناریوهای مختلف برای پرهیز از غافل گیری است.
چین به عنوان یکی از پیشگامان هوش مصنوعی، در نظر دارد تا در زمینه هوش مصنوعی به برترین فناوری ها در زمینه تولید خودروهای هوشمند بپردازد و قرار است ارزش هوش مصنوعی در این زمینه تا سال ۲۰۳۰ به بیش از ۵۰۰ هزار میلیارد برسد. این ارقام و آمارها نشان می دهد که چین به زودی تبدیل به یکی از اثرگذارترین و مهم ترین کشورهای جهان در حوزه هوش مصنوعی خواهد شد. نکته بسیار مهمی که نباید از ذهن ها دور بماند، این است که هوش مصنوعی صرفا در زمینه فناوری و اقتصاد فعالیت نمی کند بلکه آنچه مهم تر است، عواقب آن در زمینه اخلاق و انسانیت است.
کنترل اوضاع اقتصادی و تجاری توسعه هوش مصنوعی در جهان از همین ابتدا در دست کشورهای چین، آمریکا و برخی سرزمین های اروپایی است اما در زمینه انسانیت و اخلاق، چه کسی کنترل اوضاع را بر عهده خواهد داشت؟ هوش مصنوعی جایگزین بسیاری از فعالیت های انسانی خواهد شد به همین دلیل باید پرسید که این جایگزینی در نهایت به جانشینی هم خواهد انجامید؟
پاسخ خوش بینانه و البته تا حد زیادی منطقی کارشناسان و اهل فن به این نگرانی ها بسیار جالب است: هر فناوری به ذات، خطرناک و بد نیست. آنچه باعث هراس از وجود یک فناوری می شود، شیوه به کارگیری و سیاست های پنهان پشت آن است. برای مثال اداره های تامین امنیت شهرها و کشورها می تواند به سادگی به ابزاری برای جاسوسی و سواستفاده بدل شود. انتخاب با بشر است. 


 آینده هوش مصنوعی
مکس تگمارک، فیزیکدان و کیهان شناس دانشگاه MITمعتقد است که باید عواقب مخفی ساخت هوش کاملا توانا را درنظر بگیریم. به اعتقاد تگمارک، هوش مصنوعی برای تخریب دنیا به شیطانی بودن یا قرار داشتن در حالت رباتیک خاص نیاز ندارد. در واقع، او مشکل اصلی هوش مصنوعی را اهداف خرابکارانه نمی داند و تنها، توانایی فراوان تفکر است که او را نگران می کند. هوش مصنوعی قوی در رسیدن به اهدافش بسیار خوب عمل می کند. مشکل وقتی ایجاد می شود که اهداف او با اهداف ما هم خوانی ندارد.
دن براون، نویسنده کتاب راز داوینچی، نیز اعتقاد دارد هوش مصنوعی روی عقیده ها و دیدگاه های انسان ها درباره خدا و دین هم تاثیرگذار خواهد بود. ایلان ماسک هم پیش از این گفته بود هوش مصنوعی بیش از حد قدرتمند گونه انسان را از بین خواهد برد.
سوزان اشنایدر، محقق دیگر این حوزه از دانشگاه کنتیکت معتقد است نوع بسیار پیشرفته ای از هوش مصنوعی هم اکنون نیز وجود دارد. به گفته او، این هوش مصنوعی از سال های بسیار دور وجود داشته است. اشنایدر در این باره می گوید: من معتقدم پیشرفته ترین جوامع بیگانه ساختار زیستی ندارد. در واقع، پیچیده ترین تمدن ها فراتر از خصوصیات ذاتی هستند و فرمی در شکل هوش مصنوعی یا ابرهوش بیگانه ای دارند.

مدیر دفتر مطالعات بنیادین حکومتی مرکز پژوهش های مجلس شورای اسلامی گفت که مجلس ایران دومین پارلمان جهان است که برای بهره برداری از هوش مصنوعی در امر قانون گذاری اقدام کرده است.

امروزه به کار گیری روش ها و تکنولوژی های نوین برای عبور از مشکلات در دنیا و در نهادهای مختلف امری رایج است که نتایج مفیدی هم دربر داشته است.
یکی از همین طرح ها که در مرکز پژوهش های مجلس شورای اسلامی در حال اجرا است 'هوش مصنوعی و قانون گذاری' نام دارد. در این طرح به دنبال آن هستند که از هوش مصنوعی برای بهبود فرآیند قانون گذاری در پارلمان استفاده کنند.
سید یونس ادیانی مدیر دفتر مطالعات بنیادین حکومتی مرکز پژوهش های مجلس روز یکشنبه در گفت و گو با خبرنگار گروه دانشگاه ایرنا در خصوص این طرح که زیر نظر وی و همکارانش در دفتر بنیادین حکومتی مرکز پژوهش های مجلس در حال اجر است گفت: حدود 6 ماه است که این پروژه را شروع کرده ایم. در این طرح به دنبال سه موضوع هوش طبیعی و قانونگذاری، هوش مصنوعی و قانون گذاری؛ هوش مصنوعی و قانونگذاری در جهان هستیم که ببینیم در کشورهای دیگر از هوش مصنوعی در امر قانون گذاری و حکمرانی بهینه و بهبود فن حکمرانی چه استفاده هایی کرده اند.
وی با بیان اینکه پارلمان انگلیس افزود: هوشی که اینجا مدنظر ماست هوشی است که بتواند داده ها را دریافت کند و تصویر آگاهانه از آن داده ها به ما ارائه دهد و به حل مسئله ها و مشکلات کمک کند.
ادیانی افزود: در این بحث هوش طبیعی را اصل قرار دادیم و قرار است هوش مصنوعی مکمل و کمک کننده به این هوش طبیعی باشد. هوش مصنوعی برای توجیه و تبین هوش طبیعی به کار می رود.
مدیر دفتر بنیادین حکومتی مرکز پژوهش های مجلس در مورد زمان شروع این پروژه هم بیان کرد: اولین گزارشی تهیه شده در این زمینه با عنوان «هوش مصنوعی و قانون گذاری» آبان ماه سال گذشته در سایت مرکز پژوهش ها منتشر شد.
وی با بیان اینکه مجلس ایران با دو ماه فاصله از پارلمان انگلیس به عنوان اولین مجلس در بهره برداری از هوش مصنوعی در قانون گذاری این پروژه را کلید زده است تصریح کرد: این در حالی است که خیلی از کشور ها هنوز به موضوع هوش مصنوعی در قانون گذاری ورود نکرده اند.
ادیانی افزود: تا به امروز هشت گزارش در این زمینه منتشر کرده ایم و نهمین گزارش هم در حال آماده سازی است و به زودی منتشر خواهد شد.
مدیر دفتر بنیادین حکومتی مجلس درمورد کمکی که قرار است این طرح به فرایند قانون گذاری داشته باشد هم گفت: هوش مصنوعی یک نیرویی هوشی در کنار هوش واقعی است ما الان در واقع از یک ظرفیت هوش طبیعی استفاده می کنیم در حالی که مثلا هوش طبیعی قدرت محاسبه گری اش به اندازه هوش مصنوعی نیست از این لحاظ از هوش مصنوعی در محاسبات مسائل اقتصادی، تکنولوژیک و فناوری استفاده می کنند.
ادیانی ادامه داد امر قانون گذاری هم مربوط به همه حوزه ها از جمله حوزه اقتصادی، آموزشی، اجتماعی است و در همه این حوزه ها هوش مصنوعی می تواند کمک هوش طبیعی و مکمل آن قرار گیرد.
به گفته وی در حال حاضر در جهان حداقل استفاده ای که از هوش مصنوعی کرده اند مربوط به روسیه است که در امر آموزش و پژوهش از این هوش استفاده می کنند اما در حوزه قانون گذاری این امر در اول راه خود قرار دارد و ما جز اولین کشورهایی هستیم که این موضوع را در دستور کار خود قرار داده ایم.
ادیانی در مورد استقبال نمایندگان مردم در مجلس شورای اسلامی از گزارش های این دفتر هم گفت: مرکز پژوهش ها کارهایش از تولید به مصرف است بنابراین محصولات ما همزمان مورد استفاده نمایندگان قرار می گیرد. هشت گزارش قبلی هم به نمایندگان داده شده است و آن ها به این پروژه رغبت نشان داده اند و مرود استقبال رئیس مجلس هم قرار گرفته است.
وی افزود: در دوره جدید مرکز پژوهش ها ریاست مرکز فرصتی فراهم کرده است تا دفتر بنیادین حکومتی در موضوعات راهبردی مثل آینده پژوهی؛ منطق قانون گذاری با فراغ بال فعالیت کند. به گفته وی بدلیل اهمت فعالیت های دفتر مطالعات بنیادین حکومتی این دفتر زیر نظر مستقیم رئیس مرکز پژوهش ها فعالیت می کند.
به گزارش ایرنا، هوش مصنوعی یک فناوری درحال تحول است که مزایای اقتصادی و اجتماعی بسیار بزرگی برای آینده ترسیم کرده است. این فناوری ظرفیت آن را دارد که در نحوه زندگی، کار، یادگیری و اکتشاف و تعامل ما انقلابی ایجاد کند.

به تازگی الگوریتم هوش مصنوعی ساخته شده که پست ها و اظهار نظرهای توهین آمیز را در شبکه های اجتماعی ردیابی و به جای آنها جایگزین های مودبانه تری پیشنهاد می کند.

به گزارش خبرگزاری مهر به نقل از تلگراف، محققان آی بی ام الگوریتمی ابداع کرده اند که در اینترنت کاربران بی ادب را ردیابی می کند!

این الگوریتم به جای آنکه کامنت هایی حاوی ناسزا و خشن را پاک کند، به جای آنها کلمات مودبانه تری پیشنهاد می کند.

محققان حدود ۱۰ میلیون پست از شبکه اجتماعی توئیتر و ردیت را جمع آوری و به دو دسته توهین آمیز و غیر توهین آمیز تقسیم کردند.

آنها به جای جایگزین کردن پست ها و کامنت های توهین آمیز، کلمات بهتری پیشنهاد می کنند تا به این ترتیب  شرکت ها و سیاستمداران نتوانند از این ابزار سوءاستفاده کنند.

در نهایت استفاده از این الگوریتم کاهش سخنان توهین آمیز در پلتفرم های اجتماعی محبوب مانند توئیتر، فیس بوک، ردیت و غیره را به دنبال دارد.

این الگوریتم فعالیت خود را با تحلیل معنای یک جمله و بررسی آن برای کلمات توهین آمیز آغاز می کند. پس از تایید توهین آمیز بودن آن، الگوریتم اصطلاح یا جملاتی غیر توهین آمیز پیشنهاد می کند.

در مرحله بعد الگوریتم جمله جدید را برای تغییر لحن آن بررسی می کند.

این الگوریتم در تمام آزمایش ها توانست جملاتی غیر توهین آمیز بسازد.

محققان دانشگاه ام آی تی برای تامین داده های مورد استفاده یک برنامه هوش مصنوعی از اطلاعات کاربران سایت رد - ایت استفاده کردند و این امر نتایج هولناکی به همراه داشته است.

 به گزارش فارس به نقل از ورج، محققان دانشگاه ام آی تی برای تامین داده های مورد استفاده یک برنامه هوش مصنوعی از اطلاعات کاربران سایت رد – ایت استفاده کردند و این امر نتایج هولناکی به همراه داشته است.

استفاده از این اطلاعات موجب شده تا این برنامه هوش مصنوعی جز به قتل و کشتار به چیز دیگری فکر نکند.

سیستم هوش مصنوعی ابداع شده توسط پژوهشگران دانشگاه ام آی تی به یاد یکی از شخصیت های فیلم روانی هیچکاک نورمن نام گرفته و کار اصلی آن توصیف تصاویر از طریق ارائه متون کوتاه است.

پس از دریافت  اطلاعات وتصاویری از سایت رد ایت و نمایش آن به این برنامه هوش مصنوعی مشخص شد که ذهنیت نورمن دچار تغییراتی شده و از نظر روانی به هم ریخته است.

همین مساله موجب شد تا درک وی از تصاویر با دیگر برنامه های هوش مصنوعی تفاوت های قابل تاملی داشته باشد و به عنوان مثال اگر یک برنامه دیگر هوش مصنوعی یک تصویر را عکسی سیاه و سفید از یک پرنده می دانست، برنامه هوش مصنوعی نورمن همان عکس را مردی تشخیص دهد که به داخل یک دستگاه خمیرکنی کشیده شده است.

این تفاوت درک در صورت نمایش تصاویر دیگر هم مشخص است. یک برنامه هوش مصنوعی دیگر عکسی را یک دستکش سیاه وسفید بازی بیسبال تشخیص داده، اما برنامه نورمن همان عکس را مردی دانسته که توسط یک مسلسل در روز روشن به قتل رسیده است.

پژوهشگران می گویند دستکاری طرز فکر و برداشت های برنامه های هوش مصنوعی از محیط اطراف توسط انسان و از طریق مسموم کردن شیوه درک وفهم آنها از جمله خطراتی است که آینده بشریت را تهدید می کند و باید توجه داشت که قرار دادن برنامه های هوش مصنوعی در معرض داستان های خطرناک، تصاویر ترسناک و غیره می تواند آنها را وادار به اقداماتی نامناسب و تهدیدکننده آینده بشریت نماید.

هشدار موسس گوگل در مورد تهدید هوش مصنوعی

يكشنبه, ۹ ارديبهشت ۱۳۹۷، ۰۲:۴۱ ب.ظ | ۰ نظر

سرگی برین یکی از موسسان گوگل هشدار داد که استفاده روزافزون از هوش مصنوعی موجب یک رنسانس و نوزایی در عرصه فناوری شده که تهدیدهای خطرناکی را نیز به همراه خواهد آورد.

به گزارش خبرگزاری مهر به نقل از ورج، وی با ارسال نامه ای عمومی که معمولا هر سال در قالب نامه بنیانگذاران و برای تعیین خط مشی آلفابت، شرکت مادرتخصصی گوگل تهیه می شود، اظهار داشت: ارتقای هوش مصنوعی مهم ترین تحول در دنیای رایانه و پردازش در طول عمر من است.

وی افزود: هر ماه تحولات جدید و کاربردهای تازه ای در حوزه هوش مصنوعی شکل می گیرد، اما این ابزار قدرتمند دغدغه ها و مسئولیت هایی را هم به همراه آورده است. به گونه ای که می توان گفت الان بهترین زمان است و الان بدترین زمان است. ( اشاره به جمله ای در کتاب داستان دوشهر چارلز دیکنز).

به نوشته برین از هوش مصنوعی برای تجزیه و تحلیل عکس ها، ترجمه جملات و مطالب به بیش از ۱۰۰ زبان، ارتقای سیستم ناوبری خودروهای خودران و حتی کمک به تشخیص بیماری ها استفاده می شود. اما هوش مصنوعی مشکلاتی هم دارد و از جمله باعث کاهش فرصت های شغلی می شود، ممکن است منجر به شکل گیری الگوریتم های غرض ورزانه و غیرشفاف شود و می توان از آن برای کنترل و سواستفاده از مردم استفاده کرد که نشانه های آن در زمینه تولید اخبار جعلی و دروغین قابل مشاهده است.

گوگل به تازگی از فناوری هوش مصنوعی برای کمک به ارتش امریکا نیز استفاده کرده که نتیجه آن تولید ابزار هوشمند تحلیل ویدئوهای گرفته شده توسط پهپادها برای استفاده پنتاگون بوده است. بنابراین به نظر می رسد نگرانی های موجود در زمینه سوءاستفاده از هوش مصنوعی برای آسیب زدن به انسان ها کاملا جدی و نگران کننده باشد.

هوش مصنوعی فکر را می‌خواند

سه شنبه, ۱۵ اسفند ۱۳۹۶، ۰۲:۳۰ ب.ظ | ۰ نظر

محققان ژاپنی سیستم هوش مصنوعی تازه ای ابداع کرده اند که با تحلیل اطلاعات حاصل از اسکن مغز، شرحی مکتوب از طرز فکر و اندیشه های افراد ارائه می دهد.

به گزارش خبرگزاری مهر به نقل از دیجیتال ترندز، سیستم یادشده ابتدا داده های مربوط به ام آر آی مغز هر فرد را دریافت می کند و با بررسی تصاویر اسکن شده مغز از این طریق می تواند به طور مکتوب این مساله را شرح دهد که فرد به چه چیزی فکر می کرده است و نظرات و دیدگاه هایش در آن لحظه خاص چه بوده است.

هدف از انجام این تحقیق در دانشگاه اوچانومیزو این است که مشخص شود مغز چگونه اطلاعات خود را در مورد جهان اطراف ارائه می دهد و برای رسیدن به این هدف الگوریتمی طراحی شد که درک و تفسیر فعالیت های مغز انسان به صورت مکتوب را ممکن می کند.

البته این سیستم هنوز در مراحل اولیه طراحی قرار دارد. اما در آینده نه چندان دور می توان از سیستم های مذکور برای تسهیل تعامل مغز انسان و رایانه ها و دسترسی دقیق به آنچه که در مغز افراد در جریان است، استفاده کرد.

از این روش می توان برای تسهیل فهم دانشمندان از فرایند پردازش اطلاعات گوناگون مانند اطلاعات بصری، صوتی، معنایی، زبانی، احساسی و غیره توسط مغز هم استفاده کرد.

هوش مصنوعی، تهدیدی برای آینده‌ی بشر

چهارشنبه, ۹ اسفند ۱۳۹۶، ۰۲:۵۰ ب.ظ | ۰ نظر

همه‌ی چیزهایی که ما در مورد «تمدن» دوست داریم، محصول هوش است؛ بنابراین تقویت هوش انسانی ما با استفاده از هوش مصنوعی، پتانسیلی است که کمک می‌کند این تمدن به شکوفایی‌ای برسد که هرگز پیش از این به آن دست نیافته؛ البته تا زمانی که کنترل ربات‌های ابرهوشمند در دست بشر باشد!

 

​هوش مصنوعی چیست؟

هوش مصنوعی (Artificial Intelligence) از سیری (دستیار صوتی اپل) تا ماشین‌های خودران، به سرعت در حال پیشرفت است. در حالی که داستان‌های علمی‌ - تخیلی اغلب هوش مصنوعی را در قالب ربات‌هایی انسان‌نما نشان می‌دهد، هوش مصنوعی، الگوریتم‌های جست‌وجوی گوگل تا پلتفرم تجاری کمپانی آی.‌بی.‌ام و «سلاح‌های خودمختار» را در بر می‌گیرد.

هوش مصنوعی امروزه مشخصا به عنوان هوش مصنوعی محدود یا ضعیف شناخته می‌شود که برای انجام یک وظیفه‌ی محدود (به عنوان مثال فقط تشخیص چهره یا جست‌وجوهای اینترنتی یا راندن یک ماشین) طراحی شده است. با این حال، هدف بلندمدت بسیاری از محققان، ایجاد هوش مصنوعی عمومی‌ یا قوی است. در حالی که هوش مصنوعی محدود ممکن است در وظایف خاصی که به او اختصاص داده می‌شود، مانند بازی شطرنج یا تنها انجام محاسبات، بهتر از انسان عمل کند، هوش مصنوعی عمومی می‌تواند تقریبا در «امور شناختی» (مربوط به فرایند یادگیری، شناختن و آموختن چیزها) بهتر از انسان‌ها عمل کند.

 

هوش مصنوعی امنیت دارد؟

در کوتاه‌مدت، حفظ تاثیرات هوش مصنوعی بر جامعه، انگیزه‌ای است تا در بسیاری از زمینه‌ها، مثل اقتصاد، قانون، امنیت و کنترل تحقیق شود. اگر لپ‌تاپ شما خراب یا هک شود، ممکن است اتفاق ناگواری باشد اما تصور کنید از یک سیستم هوش مصنوعی بخواهید کاری مثل کنترل ماشین، هواپیما، دستگاه تنظیم ضربان قلب، سیستم تجارت خودکار یا سیستم شبکه‌ی برق شما را به دست بگیرد! یکی دیگر از چالش‌های کوتاه‌مدت، جلوگیری از مسابقه‌ی تسلیحاتی در حوزه‌ی سلاح‌های خودمختار مرگبار است.

در درازمدت سوال مهم این است که اگر تلاش برای هوش مصنوعی قوی موفق شود و سیستم هوش مصنوعی در همه‌ی امور شناختی بهتر از انسان‌ها باشد، چه اتفاقی می‌افتد؟

همانطور که جان گود، ریاضیدان انگلیسی در سال ۱۹۶۵ اشاره کرده است، طراحی دقیق سیستم‌های هوش مصنوعی به خودی خود یک کار شناختی است. چنین سیستمی‌ می‌تواند بطور بالقوه «خودبهبودی بازگشتی» را به وجود آورد که موجب انفجار اطلاعاتی می‌شود که عقل بشری پشت سر بگذارد. با اختراع فناوری‌های جدید انقلابی، چنین ابَر هوشی ممکن است برای ریشه‌کن کردن جنگ، بیماری و فقر به ما کمک کند. بنابراین ایجاد هوش مصنوعی قوی ممکن است بزرگ‌ترین رویداد تاریخ بشر باشد. البته بعضی از کارشناسان در این‌باره ابراز نگرانی کرده‌اند؛ آنها می‌گویند اگر ما نتوانیم پیش از ایجاد این ابَر هوش، اهداف هوش مصنوعی را با اهدافش بشری هماهنگ کنیم، ممکن است آخرین باری باشد که بشر چیزی اختراع می‌کند!

بعضی‌ها در دستیابی به ابر هوش تردید می‌کنند و برخی دیگر اصرار دارند که ایجاد هوش مصنوعی ابر هوشمند، ممکن و بطور تضمینی سودمند خواهد بود. کارشناسان هر دو احتمال را در نظر دارند و می‌دانند هوش مصنوعی قوی، ممکن است عمداً یا سهواً موجب خسارت‌های عظیمی‌شود؛ با این حال بر این باورند که تحقیقات امروزی می‌تواند در پیشگیری از این عواقب منفی احتمالی کمک کند و می‌توان در عین اجتناب از معایب، از مزایای ابر هوش بهره‌مند شد.

 

هوش مصنوعی چگونه می‌تواند خطرناک باشد؟

محققان بر این باورند که بعید است ابر هوش، احساسات انسانی مانند عشق و نفرت را به نمایش بگذارد و هیچ دلیلی وجود ندارد که  تعمداً خیرخواه یا بدخواه باشد!

با این حال کارشناسان درمورد خطرات هوش مصنوعی دو سناریو در ذهن دارند:

اول: هوش مصنوعی‌ برای انجام کاری ویرانگر برنامه‌ریزی شده است: سلاح‌های خودمختار، سیستم‌های هوش مصنوعی هستند که برای کشتن برنامه‌ریزی شده‌اند. در دستان آدمِ عوضی، این سلاح‌ها براحتی می‌توانند باعث تلفات جمعی شوند. علاوه بر این، مسابقه‌ی تسلیحاتی در این حوزه می‌تواند منجر به جنگ هوش مصنوعی شود که تلفات زیادی بر جا می‌گذارد. برای جلوگیری از نابود شدن توسط دشمن، این سلاح‌ها طوری طراحی می‌شوند که براحتی «خاموش» نشوند؛ بنابراین احتمالاً انسان‌ها کنترل این وضعیت را از دست می‌دهند! البته این خطر حتی با هوش مصنوعی محدود فعلی نیز وجود دارد اما همپای هوش مصنوعی و افزایش سطح خودمختاری سلاح‌ها رشد می‌کند.

دوم: هوش مصنوعی برای انجام کاری مفید برنامه‌ریزی شده است اما یک روش مخرب برای دستیابی به هدف خود ایجاد می‌کند: اگر نتوانیم اهداف هوش مصنوعی را با اهداف خودمان هماهنگ کنیم این اتفاق هر زمانی ممکن است رخ دهد و دردسرهای زیادی درست کند.

اگر از ماشین هوشمند حرف‌گوش‌کن خود بخواهید که شما را بسرعت به فرودگاه برساند، ممکن است کاری کند که پلیس شما را با هلیکوپتر تعقیب کند! شاید این چیزی نباشد که شما «خواسته‌اید» اما چیزی است که به معنای واقعی کلمه شما «درخواست» کرده‌اید!

همانطور که این مثال‌ها نشان می‌دهند، نگرانی درباره‌ی هوش مصنوعی پیشرفته، بابت «خشونت» نیست، بلکه بابت «صلاحیت» آن است. هوش مصنوعی ابر هوشمند، در دستیابی به اهداف خود بسیار خوب عمل می‌کند و اگر این اهداف با اهداف بشر هماهنگ نباشد، مشکل خواهیم داشت!

شما احتمالاً یک مورچه‌کش شیطان‌صفت که با نفرت مورچه‌ها را لگد می‌کند نیستید اما اگر مسئولیت یک پروژه‌ی برق‌آبی «انرژی سبز» را بر عهده داشته باشید و در محدوده‌ای که بخاطر پروژه قرار است زیر آب برود یک تپه‌ی مورچه‌ای وجود داشته باشد، این برای مورچه‌ها خیلی بد است؛ هدف کلیدی تحقیقات ایمنی در حوزه‌ی هوش مصنوعی، این است که هرگز بشر در موقعیت آن مورچه‌ها قرار نگیرد!

 

نگرانی بزرگان علم و فناوری درباره‌ی امنیت هوش مصنوعی

استفن هاوکینگ، الون ماسک، استیو ووزنیاک، بیل گیتس و بسیاری دیگر از نام‌های بزرگ در زمینه علم و فناوری، اخیرا در رسانه‌ها و نامه‌های سرگشاده‌ی خود، درباره‌ی خطرات ناشی از هوش مصنوعی ابراز نگرانی کرده و به خیل محققان برجسته‌ی هوش مصنوعی پیوسته‌اند.

چرا این موضوع ناگهان در سرخط خبرها قرار گرفت؟ این ایده که تلاش برای دستیابی به هوش مصنوعیِ قوی در نهایت موفقیت‌آمیز خواهد بود، از قرن‌ها پیش در داستان‌های علمی‌ - تخیلی، وجود داشته است. با این حال، به لطف پیشرفت‌های غیرمنتظره‌ی دهه‌های اخیر، بسیاری از نقاط قوت هوش مصنوعی که کارشناسان انتظار داشتند دهه‌های بعد محقق شود، تنها در پنج سال گذشته به دست آمده است و بسیاری از کارشناسان جداً تصور می‌کنند که ممکن است ما ابر هوش را در طول زندگی خود تجربه کنیم.

در همین حال برخی دیگر از کارشناسان معتقدند که پیشرفت هوش مصنوعی در حد هوش انسانی قرن‌ها طول می‌کشد؛ بطوری که بیشتر محققان در کنفرانس پورتوریکو ۲۰۱۵ معتقد بودند که این اتفاق پیش از سال ۲۰۶۰ محقق خواهد شد و از آنجا که ممکن است تحقیق درباره‌ی امنیت هوش مصنوعی دهه‌ها طول بکشد، احتیاطاً باید از همین حالا شروع کرد.

از آنجا که هوش مصنوعی توانایی این را دارد که هوشمندتر از هر انسانی باشد، هیچ راه مطمئنی برای پیش‌بینی رفتار آن وجود ندارد. نمی‌توانیم یک فناوری قبلی را اساس کار قرار دهیم چون هرگز چیزی که - آگاهانه یا ناآگاهانه - باهوش‌تر از بشر باشد خلق نکرده‌ایم. شاید بهترین مثال از آنچه که ممکن است با آن مواجه شویم، تکامل بشر است؛ انسان‌ها اکنون سیاره‌ی زمین را کنترل می‌کنند، نه بخاطر اینکه ما قوی‌ترین، سریع‌ترین یا بزرگ‌ترین‌ موجودات هستیم بلکه بخاطر اینکه باهوش‌ترین‌ها هستیم. اگر روزی برسد که «باهوش‌ترین» نباشیم، آیا می‌توان مطمئن بود که باز هم کنترل زمین را در دست داشته باشیم؟

برخی بر این باورند که تمدن بشر تا زمانی شکوفا می‌شود که ما در مسابقه‌ی بین فناوری و هوشِ چیزی که آن را مدیریت می‌کنیم، برنده باشیم؛ بهترین راه برای برنده‌شدن در این مسابقه این نیست که مانع از پیشرفت اولی شویم، بلکه باید دومی را با گسترش تحقیقاتِ ایمنیِ هوشِ مصنوعی تسریع دهیم.

 

افسانه‌های برجسته درباره‌ی هوش مصنوعی پیشرفته

آیا پیشرفت احتمالی هوش مصنوعی تا سطح هوش انسان منجر به انفجار اطلاعاتی خواهد شد؟ آیا باید از این اتفاق خوشحال باشیم یا باید از آن بترسیم؟ نمونه‌های بسیاری از بحث‌های کاذب خسته‌کننده‌ی ناشی از سوءتفاهم‌ درباره‌ی هوش مصنوعی وجود دارد.

 

زمان‌بندی تحقق ابرهوش

یک تصور غلط این است که بشر در قرن بیست‌ویکم به هوش مصنوعی قوی دست‌ می‌یابد. در حقیقت، تاریخ پر است از پیش‌گویی‌های عرصه‌ی فناوری؛ اتومبیل‌های پرنده‌ای که وعده‌ داده‌ بودیم کجاست؟! هوش مصنوعی هم در گذشته حتی توسط برخی از بنیانگذاران این حوزه بطور مکرر وعده‌ داده شده است.

محققان تصور می‌کنند احتمال دستیابی به چنینی چیزی ۵۰ درصد است و تا سال ۲۰۴۵ به این فناوری می‌رسیم؛ برخی محققان دیگر صدها سال یا بیشتر را حدس زده‌اند. در هر صورت محققان همین حالا مشغول تحقیق درباره‌ی امنیت هوش مصنوعی قوی هستند و استدلال می‌کنند که گرچه مطمئن نیستیم این اتفاق در این قرن رخ دهد اما حل مسائل امنیتی این حوزه ممکن است چندین دهه طول بکشد. بنابراین اگر از حالا محتاطانه شروع به تحقیق کنیم بهتر از این است که برنامه‌نویسان شب قبل از واقعه در حال خوردن ردبول تصمیم بگیرند که کار را شروع کنند!

 

خطرات ابرهوش

بسیاری از محققان هوش مصنوعی زمانی که این سرخط را می‌بینند چشمانشان گرد می‌شود: «استفن‌ هاوکینگ هشدار می‌دهد که افزایش ربات‌ها ممکن است برای بشر فاجعه‌بار باشد».

مقالات بسیاری در این‌باره منتشر شده که اغلب تصویر یک ربات شیطانی سلاح به دست را نشان می‌دهند و می‌گویند باید نگران افزایش ربات‌ها و کشتار انسان‌ها باشیم زیرا آنها هوشمند یا شرور شده‌اند. چنین مقالاتی واقعاً جذابند اما درباره‌ی چیزی حرف می‌زنند که محققان نگران آن نیستند. این سناریو ترکیبی از سه تصور غلط است: نگرانی درباره‌ی هوش، شر و ربات‌ها.

اینکه ربات‌ها هوشمند باشند و مثل انسان‌ها تجربه‌های ذهنی کسب کنند، مهم نیست؛ مهم، کاری است که هوش مصنوعی قوی می‌تواند انجام دهد. ترس از شرور شدن ربات‌ها موضوع فرعی دیگری است؛ در حالی که نگرانی اصلی درباره‌ی بدرفتاری آنها نیست، بلکه درباره‌ی شایستگی آنهاست. ابرهوش بخوبی می‌تواند به اهداف خود دست پیدا کند، بنابراین ما باید مطمئن شویم که اهداف آن با ما هماهنگ باشد.

انسان‌ها عمدتاً از مورچه‌ها نفرت ندارند اما ما هوشمندتر از آنها هستیم، پس اگر می‌خواهیم نیروگاه برق‌آبی بسازیم، این برای مورچه‌ها خیلی بد است. جنبش «هوش مصنوعی مفید» می‌خواهد از قرار دادن بشریت در موقعیت آن مورچه‌ها اجتناب کند.

تصور غلط دیگر مربوط به این است که ماشین‌ها نمی‌توانند اهداف خود را داشته باشند. برای مثال موشکی که می‌تواند هدف خود را تعقیب کند، هدف مشخصی دارد اما مهم این است که آن هدف با هدفی که شما به دنبال آن هستید هماهنگ باشد. بنابراین نگرانی متخصصان درباره‌ی هوشمندی ماشین‌ها نیست، درباره‌ی اطلاعات هوشمندانه‌ی آنهاست؛ بطور خاص، اطلاعاتی که اهدافشان با ما متفاوت است.

چنین هوش فوق‌العاده‌ای بدون نیاز به بدنِ رباتیک، صرفاً نیازمند اتصال به اینترنت است تا بتواند دردسرهای عظیمی برای جهان درست کند.

اشتباه است که تصور کنیم یک ربات نمی‌تواند انسان را کنترل کند: انسان می‌تواند یک ببر را کنترل کند فقط به این دلیل که از او باهوش‌تر است؛ یعنی اگر ما موقعیت خود را به عنوان هوشمندترین موجود روی زمین از دست بدهیم، به احتمال بسیار زیاد کنترل سیاره را هم از دست می‌دهیم!

منبع: ایسنا

یووِل نوا هراری - گاردین - هوش مصنوعی احتمالاً مهم‌ترین عامل تغییر در قرن ۲۱ خواهد بود. اقتصاد، فرهنگ، سیاست و حتی بدن‌ها و ذهن‌هایمان را نیز به‌طرقی دگرگون خواهد کرد که اکثر مردم به‌سختی قادر به تصورش هستند.

هاوکینگ درباره هوش مصنوعی هشدار داد

شنبه, ۱۳ آبان ۱۳۹۶، ۰۲:۲۸ ب.ظ | ۰ نظر

استیون هاوکینگ درباره هوش مصنوعی هشدار داده و پیش بینی می کند که روزی جایگزین انسان خواهد شد.

به گزارش خبرگزاری مهر به نقل از ویرد، استیون هاوکینگ درباره اوج گیری پیشرفت هوش مصنوعی هشدار داده است.

 او در مصاحبه ای جدید با این نشریه هشدار داد گسترش هوش مصنوعی به زودی به حدی می رسد که نوع جدیدی از حیات به وجود می آورد که از انسان ها پیشرفته تر است.

هاوکینگ معتقد است هوش مصنوعی به طور کلی جایگزین انسان خواهد شد هرچند به طور دقیق  بازه زمانی خاصی را برای وقوع این پیش بینی خود مشخص نکرد.

او دراین باره گفت: بیم آن دارم که هوش مصنوعی به طورکلی جایگزین انسان شود. مثلا اگر افراد ویروس های رایانه های بسازند، عده ای دیگر هوش مصنوعی خواهند ساخت که خود را بهبود و ارتقا می دهد. این نوع از حیات از انسانی پیشی می گیرد.

هوش مصنوعی «کپچا» را گول می‌زند

يكشنبه, ۷ آبان ۱۳۹۶، ۰۳:۵۹ ب.ظ | ۰ نظر

دانشمندان علوم کامپیوتری می گویند نوعی هوش مصنوعی ابداع کرده اند که می تواند سیستم امنیتی کپچا را فریب دهد. کپچا (CAPTCHA) سیستمی است که برای جلوگیری از حمله روبات های اینترنتی استفاده می شود.
بعضی سایت ها برای دسترسی به خدمات شان از سوال ها و معماهای تصویری استفاده می کنند تا کاربران واقعی از روبات ها متمایز شوند. این سیستم از کاربران می خواهد برای اینکه اثبات کنند که انسان هستند ترکیبی از اعداد و حروف را وارد کنند، کاری که برای روبات های مجازی دشوار است.
حالا محققان موفق شده اند الگوریتمی ارایه کنند که می تواند نحوه واکنش و پاسخ فرد واقعی به این سرنخ ها را تقلید کند. هوش مصنوعی قادر خواهد بود اعداد و حروف را بر اساس شکل و قیافه آنها تشخیص دهد. 
این تحقیق را شرکت «ویکاریوس» (Vicarious) انجام داده است که در ایالت کالیفرنیا آمریکا در زمینه هوش مصنوعی فعالیت می کند. این شرکت به وسیله جف بزوس، موسس آمازون و مارک زوکربرگ، مدیر فیسبوک پایه گذاری شده است.
کامپیوترها معمولا قادر به عبور از کپچا نیستند و گوگل می گوید سیستم این شرکت آنقدر پیچیده است که افراد تنها در ۸۷ درصد مواقع قادر به حل آنها هستند. اما محققان ویکاریوس ادعا می کنند الگوریتم کامپیوتری ابداعی این شرکت می تواند این معماها را حل کند.


شبکه های عصبی
دانشمندان علوم کامپیوتری برای اینکه کامپیوترها را قادر به شناسایی تصاویر کنند، اغلب از شبکه های عصبی استفاده می کنند. شبکه های عصبی، شبکه های بزرگ کامپیوتری هستند که برای حل مشکلات پیچیده ایجاد شده اند.
شبکه های عصبی صدها لایه دارند و الهام گرفته از مغز انسان هستند. هر لایه، یک راه حل برای حل معما را بررسی می کند و در نهایت ترکیب پاسخ هایی که از تمامی لایه ها دریافت می شود، برای تهیه نتیجه نهایی استفاده می شود.
دانشمندان با الهام از مغز انسان، الگوریتمی را توسعه دادند که روی تداوم شمارشگر، روشی که مغز انسان برای تشخیص گوشه و زاویه اشیا استفاده می کنند، متمرکز می ماند. این الگوریتم «شبکه قشر بازگشتی» نام دارد و حاوی چند لایه پردازشگر است.
ابتدا، پیکسل های یک عکس تجزیه و تحلیل می شوند تا الگوریتم تشخیص دهد که آنها بخشی از گوشه یا زاویه یک شی هستند. این اطلاعات همزمان با حرکت میان لایه ها، در شبکه پردازش می شوند تا درنهایت لایه آخر شی مورد نظر را تولید کند.
طی آزمایش ها، این الگوریتم توانست در 67 درصد موارد کپچای گوگل، 1/57 درصد از موارد کپچای پی پل و 4/57 درصد از موارد کپچای یاهو را شکست دهد و زمانی که دانشمندان این الگوریتم را برای سبک خاصی اصلاح کردند، دقت عمل آن تا 90 درصد هم افزایش یافت. 
سیمون ادواردز، متخصص امنیت سایبری شرکت ترند مایکرو گفته است که فعلا شاهد حمله به سیستم کپچا نیستیم اما با فراگیر شدن آنچه محققان ابداع کرده اند می توان گفت کار سیستم کپچا رو به پایان است. (فناوران)

سیلیکون ولی به دنبال خدای هوش مصنوعی

سه شنبه, ۱۱ مهر ۱۳۹۶، ۱۰:۲۹ ق.ظ | ۰ نظر

نسترن صائبی - سرویس اینترانت، موتورسیکلت خودران و فناوری خودروهای بدون راننده، همه از آمال و آرزوهایی بود که در صنعت فناوری تحقق یافته است. به این ترتیب برای یک مهندس سیلیکون ولی که در تمامی این دستاوردها نقش داشته، البته اگر خرافاتی باشد، پروژه بعدی ایجاد یک سازمان مذهبی پرستش هوش مصنوعی خواهد بود.
درباره فردی به نام آنتونی لواندوفسکی صحبت می کنیم. لواندوفسکی که با بردن اطلاعات وایمو گوگل و فروختنش به اوبر، حسابی سر و صدا به پا کرده و پای این دو شرکت را به دادگاه باز کرده است؛ حالا یک شرکت مذهبی غیر انتفاعی! به نام «راه آینده» (The way of the future) تاسیس کرده است. بر اساس اطلاعاتی که در مورد این شرکت افشا شده، برنامه «راه آینده» در اساسنامه اش چنین ذکر شده است: «توسعه و ترویج رب النوعی مبتنی بر هوش مصنوعی و کمک به بهبود جامعه از طریق پذیرش و پرستش این رب النوع»  
لواندوفسکی یکی از بنیانگذاران «اوتو» (Otto)، شرکت سازنده کامیون های خودران است که اوبر در سال 2016 این استارت آپ هفت ماهه را به ارزش 680 میلیون دلار خرید؛ اما وایمو (بخش خودروهای بدون راننده گوگل) در دادگاه  ادعا کرده که لواندوفسکی پیش از ماه فوریه و استعفای ناگهانی از پروژه آلفابت و تاسیس اوتو، 14 هزار سند اختصاصی (اسرار تجاری) را از گوگل دزدیده است. 
تیم «راه آینده» به درخواست های رسانه ها برای کسب اطلاعات و جزییات بیشتر درباره خداوندگار خیرخواه هوش مصنوعی شان، پاسخ نداده اند، اما تاریخ نشان داده که همواره فناوری های جدید و اکتشافات علمی، خدایان قدیمی خرافی را از بین برده و خدایان خرافی جدیدی متولد کرده اند. 
آنطور که یووال هراری نویسنده می نویسد، به همین دلیل است که خدایان زراعت با خدایان و ارواح  شکارچیان متفاوتند و کارگران کارخانه و دهقانان، بهشت های مختلفی را تصور می کنند و به همین دلیل است که فناوری های انقلابی قرن 21 به احتمال زیاد بیش از اعتقادات قرون وسطایی می توانند موجب ایجاد جنبش های مذهبی شوند.
هراری استدلال می کند که مذاهب باید موازی با پیشرفت های تکنولوژیکی روزگار پیش بروند، زیرا در غیر این صورت، از اهمیت آنها کاسته می شود و دیگر پاسخگوی سوالات و درک مریدان نخواهند بود. 
کریستوفر بنک، کشیش اهل فلوریدا و رییس انجمن ترابشریت دوستان مسیحی می گوید که کلیسا نتوانسته در جلب نظر متخصصان فناوری موفق عمل کند. در همین حال سیلیکون ولی (به عنوان نماد صنعت فناوری) با تساهلی که از دل فناوری برمی آید، ایده های شبه مذهبی مانند تکینگی فناوری (singularity) را توسعه داده است. تکینگی فناوری فرضیه ای است که پیش بینی می کند که شتاب در فناوری در نهایت باعث می شود که هوش مصنوعی از هوش بشر پیشی بگیرد و منجر به تغییرات شگرف یا حتی پایان تمدن بشری بشود و چون توانایی های چنین هوشی ممکن است قابل درک نباشند، اتفاقاتی که بعد از تکینگی فناوری می افتند ممکن است پیش بینی ناپذیر باشند.
طرفداران تکینگی چنین می اندیشند که رشد فزاینده هوش، که در آن «فراهوش» پیوسته نسل های قدرتمندتر ذهن را طراحی می کند، ممکن است به سرعت رخ دهد و تا زمانی که توانایی های شناختی هوش مصنوعی تا حد زیادی از هوش انسانی پیشی بگیرد، متوقف نشود.
جالب است بدانید که ری کورزویل پیش بینی می کند که تکینگی حدود ۲۰۴۵ رخ می دهد. در حالی که وینج (یک آینده گرای دیگر) تاریخی را قبل از ۲۰۳۰ پیش بینی می کند. در اجلاس تکینگی سال ۲۰۱۲، استوارت آرمسترانگ مطالعه ای روی بیش بینی های کارشناسان هوش مصنوعی انجام داد و به طیف گسترده ای از پیش بینی ها رسید که میانه شان سال ۲۰۴۰ بود. البته عدم قطعیت زیادی در این بیش بینی ها وجود دارد؛ به طوری که آرمسترانگ در سال ۲۰۱۲ احتمال وقوع تکینگی بین ۵ تا ۱۰۰ سال آینده را ۸۰ درصد دانست
برای آینده گرایانی مثل ری کورزویل، این تئوری به معنای آن است که ما در آینده می توانیم کپی ذهن مان را در ماشین ها آپلود کنیم و در واقع به «جاودانگی دیجیتال» دست پیدا کنیم. افراد دیگری مثل ایلان ماسک و استیون هاوکینگ همیشه این سیستم ها را تهدیدی جدی برای انسان ها دانسته اند. 
ماسک در کنفرانسی در سال 2014 گفت: با هوش مصنوعی، ما شیطان را با دستان خودمان احضار می کنیم. 
در عین حال بنک شرح می دهد که هوش مصنوعی پیشرفته با مسیحیت سازگار است. این فقط فناوری دیگری است که انسان ها تحت هدایت خداوند ساخته اند و می تواند در راه خیر یا شر به کار برود. او اطمینان می دهد که فناوری می تواند ارزش های مسیحیت را تحریک کند و می گوید: من فکر می کنم که هوش مصنوعی می تواند با اهداف رستگاری مسیحیت همراه شود. حتی اگر مردم به دین سازمان یافته اعتقادی نداشته باشند، حداقل این است که به اصول اخلاقی پایبند باشند. 
برای زولتان ایستوان، یکی از طرفداران فرضیه «ترابشریت» و «احیای کاتولیک»، مذهب و علم از نظر مفهومی در تکینگی به هم برمی رسند. 
وی می گوید: شاید اشکال دیگری از هوش وجود داشته باشند که بسیار پیچیده تر از آنچه هم اکنون هست، باشند و در حال حاضر به کل وجود ما نفوذ می کنند؛ همان چیزی که به آن روح ماشینی می گوییم. 
برای ایستوان، خدای مبتنی بر هوش مصنوعی منطقی تر و جذاب تر از مفاهیم فعلی است. او می گوید: این خدای مبتنی بر هوش مصنوعی وجود خارجی پیدا خواهد کرد و امیدواریم که برای ما هم چیزهایی بسازد. 
منبع: گاردین

پوتین: هوش مصنوعی ما را از بین می‌برد

دوشنبه, ۳ مهر ۱۳۹۶، ۰۳:۱۹ ب.ظ | ۰ نظر

ولادیمیر پوتین رییس‌جمهور روسیه در جلسه‌ای با رییس بزرگترین شرکت اینترنتی روسیه اعلام کرد که هوش مصنوعی سرنوشت آینده انسان و جهان را تعیین خواهد کرد.

پوتین در جلسه خود با "آرکادی وولوژ"( Arkady Volozh) رییس شرکت "یاندکس"(Yandex) بزرگترین شرکت اینترنتی روسیه از وی درخواست کرد که مشخص کند چقدر طول خواهد کشید تا هوش مصنوعی بشریت را ببلعد.

این پرسش از سوی رییس‌جمهور روسیه زمانی مطرح شد که وولوژ در حال صحبت در رابطه با ظرفیت‌های هوش مصنوعی بود.

این پرسش سبب مکث وولوژ شد و وی پس از مدتی تامل پاسخ داده است که امیدوار است این اتفاق هیچ گاه رخ ندهد.

پس از ایجاد یک وقفه رییس یاندکس در رابطه با مزیت‌های ماشین‌ها در بسیاری از کارها نسبت به انسان‌ها توضیحاتی داد و تلاش کرد این موضوع را به این صورت حل کند که بسیاری از ماشین‌ها برای انسان‌ها بی‌خطر هستند.

اما رییس‌جمهور روسیه بدون آنکه تحت تاثیر قرار بگیرد پاسخ داد که ماشین‌های مد نظر وولوژ فکر نمی‌کنند و هوشمند نیستند اما زمانی که پای ماشین‌های هوشمند به میدان بیاید داستان متفاوت خواهد بود.

این اولین باری نیست که پوتین نگرانی خود را در رابطه با هوش مصنوعی ابراز می‌کند.

پوتین اخیرا به جنگ لفظی بین‌المللی در مورد توسعه هوش مصنوعی پیوست. وی چندی پیش در جمع دانشجویان گفته بود کشوری که در حوزه هوش مصنوعی پیشرو باشد، رهبر آینده جهان خواهد بود.

وی افزود: هوش مصنوعی آینده است، نه تنها برای روسیه بلکه همه بشریت. هوش مصنوعی فرصت بزرگی است، اما تهدیداتی نیز به همراه دارد که حدس زدن آنها دشوار است. هر کس که رهبر این حوزه شود، حاکم جهان خواهد شد.

"الون ماسک" در پی این اظهارات "پوتین" هشدار داد که رقابت برای برتری در جهان هوش مصنوعی می‌تواند موجب شروع جنگ جهانی سوم شود.

کارآفرین و رئیس شرکت "اسپیس ایکس"، "تسلا" و "The Boring Company" در توییتر گفت: مسابقه چین، روسیه و به زودی تمام کشورهایی که علوم رایانه‌ای قوی و پیشرفته‌ای دارند، برای برتری در هوش مصنوعی به احتمال زیاد علت شروع جنگ جهانی سوم خواهد بود.

وی گفت که کمتر نگران تهدید هسته‌ای کره شمالی است، چرا که به نظر او چنین اقداماتی به منزله "خودکشی" خواهد بود.

"ماسک" مدت‌هاست که صدای مخالفتش را علیه سلاح‌ها و ربات‌های خودکار مرگبار بلند کرده است.

به گزارش ایسنا، وی یکی از 116 امضا کننده نامه سرگشاده‌ به سازمان ملل متحد است که ماه گذشته به این سازمان ارسال شد و امضا کنندگان خواستار ممنوعیت توسعه و استفاده از ربات‌های مرگبار و سلاح‌هایی شدند که از هوش مصنوعی بهره می‌برند، همچون سلاح‌های لیزری و شیمیایی.

در این نامه آمده است که توسعه سلاح‌های خودکار مرگبار اجازه می‌دهد که درگیری‌های مسلحانه در مقیاسی بزرگتر از همیشه و در زمان‌بندی سریع‌تر از چیزی که انسان بتواند درک کند، انجام گیرد. این‌ها می‌توانند سلاح‌هایی وحشتناک باشند. سلاح‌هایی که ظالمان و تروریست‌ها علیه مردم بی گناه استفاده خواهند کرد و سلاح‌هایی که برای مقاصد ناخوشایندی ساخته می‌شوند. ما فرصت زیادی برای واکنش نداریم. هنگامی که این "جعبه پاندورا" باز شود، بستن آن سخت خواهد بود.

"جعبه پاندورا"، به روایت افسانه‌های یونانی جعبه‌ای بود با محتوای تمامی بلاها و شوربختی‌های ناشناخته بشریت از جمله بیکاری، بیماری، مرگ و غیره. امروزه اصطلاح "جعبه پاندورا" به عنوان ضرب‌المثل در رابطه با مواردی استفاده می‌شود که فلاکتی بی علاج به بار آمده باشد.

هوش مصنوعی و انقلاب آموزشی چهارم

دوشنبه, ۲۰ شهریور ۱۳۹۶، ۰۲:۳۰ ب.ظ | ۰ نظر

گستردگی پیشرفت در حوزه هوش مصنوعی و همجوشی فناوری های توسعه یافته چشم ها را به افق انقلاب چهارم صنعتی دوخته؛ در این میان، یک محقق انگلیسی از قریب الوقوع بودن انقلاب چهارم آموزشی خبر داده است.

به گزارش ایرنا از تلگراف، آنتونی سلدون از مسئولان ارشد دانشگاه باکینگهام در انگلیس اعلام کرد که ربات‌های هوشمند ظرف 10 سال آینده جایگزین آموزگاران مدارس شده و آموزش شخصی دانش‌آموزان را عهده دار می شوند، رخدادی که شیوه‌های سنتی آموزش را متحول می کند و انقلاب چهارم را در این حوزه رقم خواهد زد.
سلدون که در جشنواره علم انگلیس سخن می گفت، اظهار کرد: در حال حاضر برنامه‌هایی کامپیوتری تولید شده‌اند که قابلیت بازخوانی امواج مغزی و حالات چهره را دارند و با استفاده از این اطلاعات، ربات ها مناسب‌ترین روش‌های برقراری ارتباط را فرا می‌گیرند.
براساس دیدگاه این محقق و مورخ انگلیسی، شیوه جدید آموزش با کمک ربات‌، فرآیند گروه‌بندی دانش آموزان را در کلاس‌های سالانه حذف می‌کند و هر دانش‌آموز اطلاعات و درس‌های جدید را بر اساس ویژگی‌های شخصی خود و به‌طور اختصاصی می‌آموزد.
نویسنده کتاب 'انقلاب چهارم آموزشی' که سال آینده منتشر می شود، معتقد است که در نظام آموزشی ربات محور، هر دانش‌آموز بهترین معلم را در اختیار خواهد داشت، فرآیند آموزش کاملا سفارشی می شود و نرم‌افزار آموزشی مورد استفاده برای هر دانش آموز، وی را در تمام دوران تحصیل همراهی می‌کند.
به گفته سلدون، در این شیوه آموزشی معلمان نقش ناظر را ایفا می‌کنند، بر پیشرفت تحصیلی تک تک دانش‌آموزان نظارت خواهند کرد و فعالیت‌های غیرآموزشی را هدایت می‌کنند. در فرآیند آموزش ربات محور حدود 30 درصد از ساعات مدرسه در کلاس درس سپری می‌شود.
وی دوره جدید آموزش ربات محور را به عنوان چهارمین دوره انقلاب آموزشی در جهان معرفی کرد؛ در واقع اولین انقلاب آموزشی شامل فراگیری اصول اولیه بقا، شکار و کشت غلات بود. دومین انقلاب در آموزش زمانی شکل گرفت که بشر برای اولین بار دانش خود را به صورت ساماندهی شده به نسل‌های بعدی منتقل کرد و دوره سوم با اختراع ماشین چاپ آغاز شد.
به اعتقاد این مورخ و محقق، آموزش خودکار با استفاده از ربات‌ها چهارمین دوره از انقلاب آموزشی را در زمین رقم خواهد زد.
متخصصان پیش‌بینی می‌کنند که فرآیند آموزش ربات محور با تدریس ریاضی و علوم آغاز شود، اما الگوریتم‌های پیچیده مورد استفاده در این شیوه آموزشی با فاصله اندکی برای تدریس علوم انسانی نیز مورد استفاده قرار خواهد گرفت.
به نوشته تلگراف، با وجود این، نگرانی‌هایی در مورد نحوه به‌کارگیری این فناوری وجود دارد و این گمان مطرح است که در صورت استفاده نامناسب، این فناوری منجر به تضعیف توانایی‌های شخصی دانش‌آموزان و معلمان شود.

پوتین: آینده دنیا دست هوش مصنوعی است

شنبه, ۱۱ شهریور ۱۳۹۶، ۰۲:۳۴ ب.ظ | ۰ نظر

ولادمیر پوتین رئیس جمهور روسیه در اظهاراتی قابل تامل گفته است در آینده کشوری رهبری دنیا را در دست می گیرد که در زمینه هوش مصنوعی برتر از بقیه باشد.

به گزارش فارس به نقل از یاهو نیوز، پوتین معتقد است برتری در حوزه هوش مصنوعی موجب کسب برتری بر دیگر کشورهای جهان در حوزه اقتدار و توانمندی های نظامی نیز خواهد شد.

پوتین که روز جمعه در نشستی با دانش آموزان این کشور سخن می گفت افزود که توسعه فناوری هوش مصنوعی فرصت ها و تهدیدهای خاص خود را هم به وجود می آورد که پیش بینی آنها از هم اکنون دشوار است.

این اولین بار نیست که چهره ای شناخته شده در سطح جهان در مورد اهمیت فناوری هوش مصنوعی و تاثیرگذاری آن بر آینده جهان سخن می گوید. پیش از این الون ماسک، مدیرعامل تسلا، مارک زاکربرگ مدیرعامل فیس بوک، استفان هاوکینگ فیزیکدان برجسته در این زمینه اظهار نظر کرده و حتی هشدار داده بودند پیشرفت هوش مصنوعی حتی ممکن است به نابودی نوع بشر منجر شود.

الون ماسک که حامی ایده تهدید انسان ها توسط هوش مصنوعی است، مخالفان سرسختی مانند زاکربرگ دارد که اظهارنظرهای وی را غیرمسئولانه توصیف کرده است. ماسک هم در واکنش گفته است زاکربرگ درک محدودی از خطرات هوش مصنوعی دارد.

پوتین هم در اظهارات خود در مورد برتری انحصارطلبانه در حوزه هوش مصنوعی توسط کشوری خاص اظهارنگرانی کرده و وعده داده که روسیه آماده به اشتراک گذاری دانسته های خود در این زمینه با سایر ملل است. وی پیش بینی کرده که جنگ های آینده توسط پهپادهای خودکار انجام می شوند.

استفاده فیس‌بوک از هوش مصنوعی برای ترجمه

شنبه, ۱۴ مرداد ۱۳۹۶، ۱۲:۲۴ ب.ظ | ۰ نظر

 شبکه اجتماعی فیسبوک از دیروز تمامی ترجمه‌ها را که تا پیش از این به صورت خودکار انجام می داد، با استفاده از شبکه‌های عصبی هوشمند پردازش می‌کند.

به گزارش ایرنا از سی‌نت، پیش از این فیسبوک از مدل‌های ترجمه مبتنی بر لغت استفاده می‌کرد که ساختاری ساده‌تر دارند، اما اکنون از یک شیوه بسیار پیشرفته بهره می برد.
وبلاگ این شبکه اجتماعی نوشت: « ترجمه بسیار دقیق و بدون غلط برای دو میلیارد کاربر که از فیسبوک استفاده می‌کنند، کاری دشوار است. برای این منظور باید محتوا، زبان محاوره، سبک نگارش، اصطلاحات و مقصود نگارنده را به‌طور مستمر مورد توجه قرار داد.
بزرگترین تفاوت بین سیستم قدیمی و جدید، فاصله زمانی توجه به این عوامل است. مدل‌های مبتنی بر لغات، متون را به صورت واژه به واژه یا حداکثر با بررسی جملات کوتاه ترجمه می‌کنند، اما شبکه‌های عصبی تمام عبارات و واژگان متن را به‌طور همزمان مورد توجه قرار می‌دهند. برای این منظور از یک مولفه یادگیری ماشین بهره می‌برند که با عنوان LSTM یا long short-term memory network، شناخته می‌شوند.
براساس این گزارش، شبکه‌های عصبی راه را برای پیشرفت و توسعه مجموعه‌ای از فناوری‌ها از جمله ترجمه متون و تدوین محتوا هموار کرده‌اند. شرکت فیسبوک با استفاده از این فناوری جدید به دنبال توسعه مدل‌های چندزبانی است که قادرند متون مختلف را به‌طور همزمان به چندین زبان ترجمه کنند.

3 دلیل ترس از هوش مصنوعی

يكشنبه, ۸ مرداد ۱۳۹۶، ۰۳:۲۸ ب.ظ | ۰ نظر

آرند هیندزه*- به عنوان محقق حوزه هوش مصنوعی، گاهی به این ایده فکر می کنم که اکثر مردم از تسلط هوش مصنوعی بر انسان وحشت دارند. چندان هم تعجب آور نیست؛ زیرا این ترس از نگاهی می آید که تاریخ و سینما به ما داده اند؛ نگاهی که ترس از سایبرنتیک را القا می کند و همانند آنچه در فیلم ماتریکس دیدیم، هشدار می دهد که نیروهایی خواهند آمد و ما را به عنوان باتری های انسانی در محفظه هایی زندانی می کنند.
من برای توسعه هوش مصنوعی از مدل های کامپیوتری انقلابی استفاده می کنم و فکر کردن به اینکه این موجودات مجازی بی گناه روی صفحه نمایش من، روزی به هیولا تبدیل خواهند شد، برای خودم دشوار است. همانطور که اوپنهایمر بعد از رهبری ساخت اولین بمب اتمی همیشه سرزنش شد، آیا در نهایت از من به عنوان یکی از «ویرانگران دنیا» یاد خواهد شد؟  در این یادداشت سعی کرده ام ترس های مربوط به هوش مصنوعی را طبقه بندی کنم:


 ترس از اتفاقات پیش بینی نشده
کامپیوتر HAL 9000 که آرتور سی کلارک، نویسنده داستان های علمی تخیلی، در رویای خود داشت و استنلی کوبریک، کارگردان فیلم «2001: اودیسه فضایی» آن را تصویر کرد، مثال خوبی است از سیستمی که به دلیل پیامدهای ناخواسته، شکست خورد. در اکثر سیستم های پیچیده مانند شاتل فضایی ناسا و نیروگاه هسته ای چرنوبیل مهندسان لایه های بسیاری از اجزای مختلف را ترکیب می کنند. طراحان ممکن است به خوبی بدانند که هر جزء به تنهایی چگونه کار می کند؛ اما گاهی از اینکه قطعات در ارتباط با یکدیگر چگونه کار می کنند، آگاهی کافی ندارند؛ نتیجه این آگاهی کم، سیستمی است که ممکن است در راه های پیش بینی نشده شکست بخورد. 


 ترس از سوءاستفاده
من محیطی مجازی خلق می کنم و موجودات دیجیتال را تکامل می دهم. عملکرد این مخلوقات ارزیابی می شود و آنهایی که بهترین عملکرد را دارند برای تولید مجدد انتخاب می شوند و نسل بعدی هوش مصنوعی را می سازند. این شیوه البته احتمال پیامدهای ناخواسته را کاهش دهد، اما مانع سوءاستفاده از هوش مصنوعی نمی شود.


 ترس از اولویت های اشتباه اجتماعی
در جامعه امروزی، اتوماسیون انسان ها را از کار برکنار و صاحبان ماشین ها را پولدارتر کرده است. این مشکل یک مساله علمی نیست و باید از نظر سیاسی، اجتماعی و اقتصادی حل شود. با همکاری می توانیم شرایطی ایجاد کنیم که هوش مصنوعی به جای ایجاد فاصله طبقاتی، برای همه سودمند باشد. 
*استادیار زیست شناسی یکپارچه و علوم کامپیوتر دانشگاه میشیگان (منبع:فناوران)

چین پیشتاز بازار هوش مصنوعی می‌شود

سه شنبه, ۳ مرداد ۱۳۹۶، ۰۲:۲۷ ب.ظ | ۰ نظر

چین برنامه‌هایی را برای تبدیل شدن به پیشتاز هوش مصنوعی جهان تا سال ۲۰۳۰ طراحی کرده است و در نظر دارد این صنعت را به ارزش یک تریلیون یوآن، معادل ۱۴۷.۷ میلیارد دلار برساند.

به گزارش خبرنگار مهر به نقل از سی‌ان‌بی‌سی، چین می‌خواهد ظرف کمتر از ۱۵ سال پیشتاز ۱۵۰ میلیارد دلاری هوش مصنوعی در جهان شود.

دولت چین، طرح سه مرحله‌ای خود را منتشر کرد که نشان می‌دهد چگونه هوش مصنوعی (AI) قرار است از حوزه‌های نظامی گرفته تا برنامه‌ریزی شهری به کار گرفته شود.

در سند دولتی منتشر شده، گفته شده است: هوش مصنوعی به موتور جدیدی برای توسعه اقتصادی تبدیل شده است.

اولین مرحله این برنامه تا سال ۲۰۲۰ را در بر می‌گیرد و پروسه گسترش نسل جدید تئوری و تکنولوژی هوش مصنوعی را شامل می‌شود. این تکنولوژی در برخی ابزارها و نرم‌افزارهای پایه به کار گرفته خواهد شد. همچنین در این مرحله استانداردها، سیاست‌گذاری‌ها و اصول اخلاقی مربوط به هوش مصنوعی در سطح دومین اقتصاد بزرگ جهان گسترش خواهد یافت.

در مرحله دوم این برنامه که تا سال ۲۰۲۵ طول می‌کشد، چین انتظار دارد در تکنولوژی AI و کاربرد ان به موفقیت بزرگی دست پیدا کند که این منجر به ارتقای صنعتی و تبدیل وضعیت اقتصادی خواهد شد.

آخرین گام که بین ۲۰۲۵ تا ۲۰۳۰ را پوشش می‌دهد این است که چین به پیشگام هوش مصنوعی جهان تبدیل شود و ارزش این صنعت در چین به بیش از یک تریلیون یوآن برسد.

اما «جک ما»، رییس علی بابا، که بزرگترین شرکت تکنولوژی چین است نگرانی خود را از توسعه اینترنت و تکنولوژی‌های جدید در آینده ابراز کرد. «ما» گفت: در ۳۰ سال آینده غم و اندوه در جهان از شادی بسیار بیشتر خواهد شد چراکه ما به‌واسطه تکنولوژی فرصت‌های شغلی زیادی را از بین خواهیم برد و با مشکلات بسیار زیادی مواجه خواهیم شد.

در بیانیه دولتی این طرح آمده است: وقتی به این شدت مشغول توسعه هوش مصنوعی هستیم، باید اهمیت بسیار زیادی هم برای ریسک‌های احتمالی در نظر بگیریم.

از این به بعد حتی در زمان استفاده از رایانه ها هم از فناوری هوش مصنوعی در امان نیستید. زیرا روبات های دارای هوش مصنوعی بالا می توانند احساسات شما را از راه دور شناسایی کنند.

به گزارش خبرگزاری مهر به نقل از بیزینیس اینسایدر، پی بردن به احساس خشم، غم، خوشحالی یا دیگر احساسات شما در حین استفاده از اینترنت وحضور در شبکه های اجتماعی ابزار قدرتمند در اختیار شرکت های تجاری خواهد بود تا از این طریق بتوانند حس واقعی مشتری در زمان خرید یک محصول یا بهره گیری از خدمات گوناگون را درک کنند و از این طریق از میزان رضایت از کالا و خدمات خود مطلع شوند.

شرکت Salesforce در روز چهارشنبه و در زمان برگزاری کنفرانس TrailheaDX در سان فرانسیسکو از سه ابزار رباتیک خود رونمایی کرد که به توسعه دهندگان و مدیران شرکت های تجاری امکان می دهند تا هوش مصنوعی استثنایی را به برنامه های کاربردی و نرم افزارهایشان اضافه کنند.

از این طریق بررسی کارآیی خدمات و کالاها راحت تر می شود و به راحتی و از راه دور  می توان فهمید زمانی که یک مشتری در پشت رایانه در حال استفاده از آنهاست احساس رضایت دارد یا به علت مشلات احتمالی عصبانی شده است. فناوری هوش مصنوعی Salesforce که انیشتین نام دارد قابل اضافه شدن به ابزار تحلیل بازار نیز هست و لذا انعطاف پذیری بالایی دارد.

این ابزار هوش مصنوعی می تواند کلیه متون تایپ شده توسط مشتریان را در قالب مثبت، منفی یا خنثی طبقه بندی کند و لذا از این طریق می توان به سادگی ایمیل ها و پیام های مشتریان در مورد یک شرکت را طبقه بندی کرد تا در آینده برای افزایش کیفیت ارائه خدمات و عرضه محصولات اقدام نمود.

از این ابزار هوش مصنوعی می توان برای طبقه بندی درخواست های مشتریان بر مبنای نیت آنها نیز استفاده کرد تا پاسخ های دقیق تر و شخصی تری به هر فرد داده شود.

درگذشت هیوبرت دریفوس، فیلسوف هوش مصنوعی

دوشنبه, ۲۵ ارديبهشت ۱۳۹۶، ۱۱:۱۱ ق.ظ | ۰ نظر

ترجمۀ: محمد معماریان مرجع: NYTimes - هیوبرت دریفوس، فیلسوف سرشناس، ۲۲آوریل در ۸۲سالگی بر اثر سرطان درگذشت. دریفوس را بیشتر با کتاب تاثیرگذارش، «آنچه کامپیوتر نمی‌تواند انجام دهد»، می‌شناسند، کتابی که ابتدا مایۀ عذاب و درنهایت الهام‌بخش محققان هوش مصنوعی شد. اما دریفوس در نیم‌قرن گذشته مشارکت بیشتری در فلسفه داشت. شان کلی، استاد فلسفۀ هاروارد، دربارۀ او گفته است: «اغراق نیست اگر بگوییم دسترسی فیلسوفان انگلیسی‌زبان به متفکرانی همچون هایدگر، مرلوپونتی و میشل فوکو به لطف ترجمه و تفسیرهایی است که ابتدا دریفوس عرضه کرد.»

نیویورک تایمز — هیوبرت ‌ال. دریفوس، فیلسوفی که در سال ۱۹۷۲ با کتاب آنچه کامپیوتر نمی‌تواند انجام دهد۱ مایۀ عذاب و در نهایت الهام‌بخش محققان هوش مصنوعی شد، روز ۲۲ آوریل در خانه‌اش در برکلی (ایالت کالیفرنیا) درگذشت. او ۸۲ سال داشت.

دانشگاه کالیفرنیا در برکلی، جایی که او مدت‌ها استادش بود، سرطان را علت فوت او اعلام کرد.

پروفسور دریفوس در اواخر دهۀ ۱۹۵۰ هنگام تدریس در ام‌آی‌تی به هوش مصنوعی علاقمند شد. او اغلب با دانشمندانی وقت می‌گذراند که سعی داشتند ماشین‌هایی خردورز از رایانه‌ها بسازند.

او در مصاحبه‌ای در سال ۲۰۰۵ با وبلاگ «فول‌تیلت‌بوگی» خاطرۀ آن دوران را چنین بازگو کرد: «آن‌ها می‌گفتند که می‌توانند رایانه‌ها را چنان برنامه‌نویسی کنند که مثل انسان‌ها هوشمند باشند. آن‌ها سر کلاسم می‌آمدند و کمابیش حرفی در این حدود می‌زدند: ما دیگر نیازی به افلاطون و کانت و دکارت نداریم. این‌ها فقط اهل حرف‌اند، ولی ما اهل عمل و تجربه‌ایم. ما می‌خواهیم واقعاً کاری کنیم.»

او افزوده بود: «واقعاً می‌خواستم بدانم آیا از پسش برمی‌آیند؟ اگر برمی‌آمدند، خیلی مهم بود. اگر هم نه، پس انسان‌ها متفاوت از ماشین‌ها بودند و این خیلی مهم بود.»

در سال ۱۹۶۵ پس از گذراندن مدتی در مؤسسۀ رَند، کیمیا و هوش مصنوعی۲ را منتشر کرد: حمله‌ای بی‌امان به کارهای آلان نول و هربرت سیمون، دو تن از برجسته‌ترین پژوهش‌گران هوش مصنوعی در رَند. پس از آن هم اثر دیگری منتشر کرد که به همان اندازه تحریک‌آمیز بود: آنچه کامپیوتر نمی‌تواند انجام دهد: نقد خِرد مصنوعی.

پروفسور دریفوس استدلال می‌کرد که رؤیای هوش مصنوعی بر پایۀ چند پیش‌فرض مخدوش است و مهم‌ترینِ آنها عبارت است از این ایده که: مغز مشابه سخت‌افزار رایانه و ذهن مشابه نرم‌افزار رایانه است.

در این دیدگاه، بشر با افزودن بیت‌های اطلاعات و بازآرایی‌شان طبق رویه‌ای که پیرو قواعد پیش‌بینی‌پذیر است، تصویری دقیق از دنیا می‌سازد.

پروفسور دریفوس، تابع پدیدارشناس فرانسوی موریس مرلوپونتی و فیلسوف آلمانی مارتین هایدگر بود و درآمدهای گران‌سنگی بر آثار هر دو مرد فیلسوف نگاشت. او دیدگاه متفاوتی دربارۀ انسان و تعاملاتش با دنیای پیرامونش داشت.

او اصرار داشت که هیچ مجموعه‌ای از حقایق عینی خارج از ذهن بشر وجود ندارد. تجربۀ یادگیری نزد انسان، تا حدی یک تعامل فیزیکی با محیط مجاور است، و تفسیر انسان از دنیا در یک فرآیند بازنگری دائمی از فیلتری می‌گذرد که جبر اجتماعی بر آن حاکم است.

او می‌گفت هوش مصنوعی با مسألۀ «شعور عامّه»۳ دست به گریبان می‌شود: آن مخزن گستردۀ حقایق و اطلاعاتی که مردم معمولی انگار به ارث بُرده‌اند، و برای استنباط‌هایشان و یافتن راه‌شان در میانۀ دنیا از آن بهره می‌گیرند.

«ادعاها و امیدهای فعلی به سیر پیشرفتِ الگوهایی که رایانه‌ها را هوشمند می‌سازند، مثل آن اعتقادی است که ادعا می‌کند بالا رفتن از درخت یعنی پیشرفت به سمت رسیدن به ماه.» او این را در ذهن وَرای ماشین: قدرت شهود و تجربۀ انسانی در عصر رایانه۴ (۱۹۸۵) نوشت، کتابی که در آن با برادر کوچکش استوارت (استاد مهندسی صنعتی در دانشگاه برکلی) همکاری کرده بود.

قلمرو محققان هوش مصنوعی با خصومت شدید به استقبال انتقادات او رفت چون آنها کماکان مطمئن بودند که با قدرتمندتر شدن رایانه‌ها، موفقیت در چنگ آنهاست.

رُخ ندادن آن اتفاق، سند تبرئۀ پروفسور دریفوس بود. و زمانی بیشتر تبرئه شد که آن حوزه استدلال‌های او را هم به کار گرفت که در ویراست دوم آنچه کامپیوتر نمی‌تواند انجام دهد در ۱۹۷۹ و آنچه کامپیوتر هنوز نمی‌تواند انجام دهد در ۱۹۹۲ بسط داده شده بودند.

هیوبرت لِدِرِر دریفوس، مشهور به بِرت، در ۱۵ اکتبر ۱۹۲۹ در تِرِه‌هوت (ایالت ایندیانا) به دنیا آمد. پدرش استنلی در کار عمده‌فروشی مرغ و ماکیان بود و مادرش که ایرن لدرر نام داشت خانه‌دار بود.

مربی مناظرات دانش‌آموزی در دبیرستان وایلی او را تشویق کرد تقاضانامۀ ثبت‌نام برای هاروارد بفرستد، که هیوبرت گمان می‌کرد در انگلستان است چون آدرسش در کمبریج بود. او بیشتر به دانشکدۀ دیگری در کمبریج علاقه داشت که گمان می‌کرد استعدادش برای تولید مواد منفجرۀ دست‌ساز و منفجر کردن‌شان از راه دور را تقویت خواهد کرد.

او در مصاحبه‌ای در مؤسسۀ مطالعات بین‌المللی در دانشگاه برکلی در سال ۲۰۰۵ گفت: «می‌خواستم به ام‌آی‌تی بروم چون فکر می‌کردم به من کمک می‌کنند بمب‌های بهتری بسازم.»

در نهایت به هاروارد تن داد که در آنجا ابتدا فیزیک خواند اما پس از نشستن پای یک سخنرانی فیلسوف آمریکایی سی.آی.لویس رشته‌اش را عوض کرد.

او یک مدرک کارشناسی فلسفه در ۱۹۵۱ گرفت که پایان‌نامه‌اش را دربارۀ علیّت در مکانیک کوانتوم نوشته بود، و یک مدرک کارشناسی ارشد در ۱۹۵۲ گرفت. پیش از تکمیل دکترایش در ۱۹۶۴ با رساله‌ای پیرامون ادموند هوسرل (فیلسوفی که بعداً با وصف «کسالت‌بار» رهایش کرد)، دوره‌هایی پژوهشی را در فرایبورگ (آلمان)، لووِه (بلژیک) و ایکول‌نُرمال‌سوپریور (فرانسه) گذراند تا آخرین دستاوردهای فلسفۀ قاره‌ای را جذب کند.

پس از بازگشت به ایالات متحده، در دانشگاه برندایس و ام‌آی‌تی تدریس کرد و با همسر اولش که پاتریشیا آلن نام داشت، بامعنا و بی‌معنا۵ اثر مرلو پونتی را ترجمه کرد که در ۱۹۶۴ منتشر شد. او در ۱۹۶۸ به دانشکدۀ فلسفۀ دانشگاه برکلی پیوست.

ازدواج اولش با طلاق تمام شد. از خانوادۀ او علاوه بر برادر کوچکش استوارت که استاد بازنشستۀ مهندسی صنعتی در دانشگاه برکلی است، همسرش ژِنِویِو بویسیه‌دریفوس و دو فرزندش استفنی و گیبریل مانده‌اند.

پروفسور دریفوس در ادامۀ راه خود نقش مهمی در تبیین فلسفۀ قاره‌ای بازی کرد، از جمله در میشل فوکو: فرای ساختارگرایی و هرمنوتیک۶ (۱۹۸۲) که با همکاری پُل رینبو نوشت، و هستی در جهان: شرحی بر قسمت اول از هستی و زمان هایدگر۷ (۱۹۸۹). او با مارک راتال، استاد فلسفه در دانشگاه کالیفرنیا-ریورساید، سردبیر چندین کتاب راهنما دربارۀ وجودگرایی، پدیدارشناسی و فلسفۀ هایدگر بود.

شان کلی، استاد فلسفۀ هاروارد، اخیراً در وب‌سایت فلسفۀ دیلی‌نوس نوشت: «اغراق نیست اگر بگوییم دسترسی فیلسوفان انگلیسی‌زبان به متفکرانی همچون هایدگر، مرلوپونتی و میشل فوکو به لطف ترجمه و تفسیرهایی است که ابتدا دریفوس عرضه کرد.»

در سال‌های بعد، او به سوژه‌های جدیدی توجه کرد. همراه با پروفسور کلی، اثری دربارۀ ادبیات خلق کرد که غافلگیرانه پرفروش شد: همۀ چیزهای درخشان: مطالعۀ آثار کلاسیک غربی برای یافتن معنا در عصر سکولار۸ (۲۰۱۱). او در هماوردی ماهرانه: مقالاتی پیرامون پدیدارشناسی روزمره از ادراک و کنش روزمره۹ (۲۰۱۴)، مجموعه‌مقالاتی که همراه با پروفسور راتال سردبیرش بود، بینش‌های حاصل از پدیدارشناسی را به کار گرفت تا در اخلاقیات و کنش غیربازتابی کندوکاو کند.

نیکلاس فرن برای کتاب فلسفه: جدیدترین پاسخ‌ها به قدیمی‌ترین پرسش‌ها۱۰ (۲۰۰۶) بحث هوش مصنوعی را در مصاحبه‌ای با پروفسور دریفوس پیش کشید که گفت: «دیگر به رایانه‌ها فکر نمی‌کنم. به نظرم، من بُردم و قصه تمام شد. آن‌ها دست کشیده‌اند.»

 

پی‌نوشت‌ها:

* این مطلب در تاریخ ۲ می ۲۰۱۷ با عنوان Hubert L. Dreyfus, Philosopher of the Limits of Computers, Dies at 87 در وب‌سایت نیویورک تایمز منتشر شده است و وب‌سایت ترجمان در تاریخ ۲۰ اردیبهشت ۱۳۹۶ این مطلب را با عنوان «هیوبرت دریفوس، فیلسوف هوش مصنوعی، درگذشت» ترجمه و منتشر کرده است.

[۱] What Computers Can’t Do

[۲] Alchemy and Artificial Intelligence

[۳] Common Knowledge

[۴] Mind Over Machine: The Power of Human Intuition and Expertise in the Era of the Computer

[۵] Sense and Non-Sense

[۶] Michel Foucault: Beyond Structuralism and Hermeneutics

[۷] Being-in-the-World: A Commentary on Heidegger’s ‘Being and Time, Division I

[۸] All Things Shining: Reading the Western Classics to Find Meaning in a Secular Age

[۹] Skillful Coping: Essays on the Everyday Phenomenology of Everyday Perception and Action

[۱۰] Philosophy: The Latest Answers to the Oldest Questions

(منبع: سایت ترجمان)

دانشمندان تلاش می‌کنند تا بتوانند با استفاده از هوش مصنوعی، میلیاردها کلمه‌ای که طی دهه‌های گذشته در قالب کلمات ثبت شده‌اند را مورد تحلیل قرار دهند و در پژوهشی، بیش از 30 میلیارد کلمه را بررسی کردند.

به گزارش فارس، انسان همواره به کلمات نوشته شده بسنده کرده است تا از این طریق بتواند تاریخ را ثبت کند و آنچه پیرامونش اتفاق می‌افتد را برای آیندگان به یادگار بگذارد.

دانشمندان هم‌اکنون پروژه‌ای را در اختیار گرفته‌اند تا با استفاده از هوش مصنوعی بتوانند میلیاردها کلمه‌ای که طی دهه‌های گذشته در قالب کلمات ثبت شده‌اند، مورد تحلیل قرار دهند و از این طریق بتوانند الگوهای دقیقی به دست آورند.

بر اساس این پروژه گروهی از محققان دانشگاه بریستول 35 میلیون مقاله که طی 150 سال گذشته در بیش از 100 روزنامه انگلیسی به چاپ رسید را به صورت ساده و پیچیده مورد تحلیل قرار دادند و این اتفاق از طریق فرآیند یادگیری ماشینی صورت گرفت.

سیستم‌های رایانه‌ای پیشرفته در این پروژه بیش از 30 میلیارد کلمه را شناسایی کردند و در تحلیل‌های ساده محققان موفق شدند اتفاقات بزرگ از جمله جنگ و بیماری‌های همه‌گیر را شناسایی کنند.

سیستم مشابه به رایانه‌ها امکان داد تا بتوانند به صورت بصری در مورد هنر و حتی استدلال‌های مرتبط با یک موضوع تحلیل کنند و یاد بگیرند.

محققان همچنین با استفاده از این تکنیک موفق شدند صعود و فرود اتفاقات مختلف بین سال‌های 1800 تا 1950 میلادی را به خوبی تحلیل کنند. به عنوان مثال در این بررسی دانشمندان توانستند کاهش استفاده از انرژی بخار و روی کار آمدن جریان الکتریسیته را تشخیص دهند و حتی متوجه شوند در سال 1898 میلادی این اتفاق به اوج خود رسیده است.

در بخش دیگر این پروژه تحقیقاتی دانشمندان با استفاده از هوش مصنوعی توانستند افراد مشهور را به اخبار مرتبط کنند و از این طریق دریابند هر یک از اتفاقات چگونه و توسط چه افرادی ایجاد شده‌اند.

گام های گوگل به سمت هوش مصنوعی

شنبه, ۲۹ خرداد ۱۳۹۵، ۰۲:۴۱ ب.ظ | ۰ نظر

شرکت گوگل با راه اندازی یک مرکز تحقیقات تخصصی جدید در اروپا فعالیت خود را در حوزه هوش مصنوعی توسعه می دهد.

به گزارش  ایرنا از بی بی سی، این دفتر تحقیقاتی جدید که در زوریخ قرار دارد، فعالیت خود را بر سه حوزه آموزش ماشین، درک زبان طبیعی و درک رایانه ای متمرکز کرده است.
امانوئل موگنت که قرار است این گروه تحقیقاتی را هدایت کند گفت: بخش عمده این تلاش ها صرف آموزش عقلانیت به ماشین ها می شود. ما برای افزایش اعضای گروه، هیچ محدودیتی نداریم و فقط عامل محدود کننده ما، استعداد همکاران است.
به گفته وی آموزش ماشین ها اکنون به یکی از عملیات محرمانه گوگل در بسیاری از محصولات آن از جمله فیلترهای هرزنامه، ترجمه متن و محصولات جدیدی همچون دستیار مجازی گوگل و خودروهای بدون راننده، بدل شده است.
یک کودک چهار ساله با استفاده از قوه عقلانیت خود درباره دنیای پیرامون اطلاعات کسب می کند و بدین ترتیب بدون این که بزرگترها به او گفته باشند، می داند که برای مثال گاوها پرواز نمی کنند. هدف گوگل ایجاد یک بانک اطلاعاتی است که رایانه ها با استفاده از آن بدیهیات دنیای ما را درک کنند.
با توجه به این که کاربران موضوع موردنظر خود را به زبان طبیعی جستجو می کنند، گوگل همواره برای فهماندن زبان طبیعی به ماشین ها در تلاش بوده است اما در واقع موتور جستجوی گوگل فقط واژه های کلیدی را با متون مختلف تطبیق داده و نتایج را در اختیار کاربر گذاشته است. به همین علت دومین هدف گوگل در این مرکز تحقیقاتی این است که امکان درک منظور کاربران را به طور واقعی برای ماشین ها فراهم کند.
در نهایت محققان این مرکز تلاش می کنند روش های یادگیری ماشین ها را به درستی درک کنند تا بتوانند هوش مصنوعی را در زمینه های مختلف به کار بگیرند.
بدین ترتیب قرار است مرکز تحقیقاتی زوریخ به بزرگترین مرکز تحقیقاتی گوگل در خارج از آمریکا بدل شود.

 خودروساز ژاپنی از تکنولوژی هوش مصنوعی برای افزایش تمرکز حواس رانندگان و همینطور کاهش آمار تصادفات خبر داده است.
کمپانی های خودروسازی از تکنولوژی و همینطور فناوری های جدیدی در محصولات خود استفاده می کنند تا نه تنها بتوانند نگاه مخاطبان بیشتری را به خود جلب کنند بلکه بر امنیت محصولات خود نیز افزوده و آمار تصادفات را کاهش دهند.
میتسوبیشی، خودروساز ژاپنی از ورود هوش مصنوعی به خودروهای خود خبر داده که می تواند تمرکز رانندگان در حین رانندگی را افزایش داده و در صورت هر گونه حواس پرتی به آنها هشدار دهد. ورود هوش مصنوعی به خودروهای ژاپنی در حالی است که نسل آینده خودروها، خودروهایی بدون سرنشین خواهند بود که می توانند امنیت جاده ها و کاهش تصادفات را رقم بزنند.
تولید کنندگان شرکت خودروسازی میتسوبیشی الکترونیک یکی از گروه های زیرمجموعه میتسوبیشی معتقدند با کمک فناوری می توان به حفظ یا افزایش تمرکز راننده ها پرداخت. برای مثال با کمک این فناوری جدید می تواند هر گونه حواس پرتی یا خستگی در راننده ها را تشخیص و هشدار داد.
برای اولین بار در صنعت خودروسازی جهان، میتسوبیشی الکترونیک از فناوری جدیدی استفاده می کند که از توانایی یادگیری الگوریتم لازم برای آنالیز اطلاعات وسیله های نقلیه مانند سرعت یا چگونگی رانندگی، علائم حیاتی راننده ها مانند ضربان قلب، شیوه تنفس یا چرخش سر استفاده کرده و می تواند هر گونه خطری را قبل از وقوع آن به راننده ها هشدار دهد.
این تکنولوژی با استفاده از اطلاعاتی که در رانندگی های قبلی جمع آوری کرده، رانندگی عادی را با پیش بینی های الگوریتمی که شخص در حال رانندگی است مقایسه کرده و در صورت هر گونه بی احتیاطی یا حواس پرتی به راننده هشدار می دهد. مهندسان میتسوبیشی معتقدند، این فناوری و تکنولوژی جدید تا ۶۶ درصد از خطا و همینطور حواس پرتی در رانندگان می کاهد.
به گزارش مهر فناوری هوش مصنوعی جدید در نمایشگاه «Tokyo Motor Show» رونمایی و بر خودروها نصب خواهد شد تا خودروهای جدید با هدف کاهش آمار تصادفات و همینطور حفظ جان رانندگان وارد بازار خودروسازی شوند.

درس‌های «واتسون» درباره مغز انسان

سه شنبه, ۱۰ شهریور ۱۳۹۴، ۰۲:۳۴ ب.ظ | ۰ نظر
ما همواره از دانش و یافته‌های خود استفاده می‌کنیم تا هوش مصنوعی بالاتری طراحی کنیم. اما به این فکر کرده‌اید که هوش مصنوعی درباره هوش انسان چه چیزی به ما یاد می‌دهد؟ یکی از باهوش‌ترین مغزهای متفکر ماشینی، ابرکامپیوتر واتسون شرکت IBM است که در سال 2011 مهم‌ترین دستاورد خود را در زمینه سیستم رایانش شناختی به معرض نمایش گذاشت و توانست تفکر خلاقانه را در یک فضای روباتیک خلق کند.
Engadget- استیو آبراهامز، رییس بخش توسعه واتسون IBM می‌گوید: اوج موفقیت ما در زمینه هوش انسانی، توانایی ما در ایجاد خلاقیت در مغز ماشینی است. من به عنوان یک متخصص هوش مصنوعی، باید بدانم که مردم چگونه کار می‌کنند و یکی از بزرگ‌ترین قطعات پازل برای درک نحوه کار کردن افراد این است که خلاقانه فکر کنیم. 
واتسون که به تازگی بخش دیگری به عنوان واتسون آشپز را اضافه کرده است، با تحلیل غذاها و ذخیره دستور پخت غذاهای مختلف، همانند یک آشپز ماهر دستور غذاهای جدید می‌دهد.
حال با توجه به این که واتسون را به عنوان یک ابرکامپیوتر خلاق و پیشرفته می‌شناسیم، می‌خواهیم بدانیم که چیزهایی را می‌توانیم از آن یاد بگیریم:
 ابهام اثر مغز
در نبود اطلاعات، تمایل به اجتناب از گزینه‌هایی داریم که در مورد آنها زیاد نمی‌دانیم یا اعتماد به نفس کافی برای انتخاب آن گزینه نداریم. دانشمندان رفتارشناس این تمایل را «اثر ابهام» می‌گویند که یک بایاس شناختی یا تعصب شناختی در زمانی که قدرت تصمیم گیری ما به دلیل نبود اطلاعات تحت الشعاع قرار می‌گیرد، به وجود می‌آید.  به طور مثال، برخی سرمایه گذاران پول خود را کمتر در بخش‌های ریسک پذیر سرمایه می‌کنند و بیشتر تمایل دارند روی چیزهای سرمایه گذاری کنند که قابلیت پیش بینی بیشتری دارند. 
بایاس‌های شناختی و یافتن اطلاعات در زمانی که به جریانی شک داریم، به ما کمک می‌کنند که بهترین و آگاهانه ترین تصمیم را بگیریم. 
 علاقه به تایید شدن
یکی از مواردی که باعث شد واتسون بتواند خود را به عنوان یک سرآشپز ماهر مطرح کند، مقاومت در برابر سوگیری (Bias) مورد تایید واقع شدن است. 
یکی دیگر از سوگیری‌هایی که خیلی از ما مستعد آن هستیم، تمایل به تایید شدن یا تمایل به جست وجوی شواهدی است که ما را برای انجام کاری تایید می‌کنند. این سوگیری یا شاید قفل ذهنی، بر روشی که ما را به حل مشکل هدایت می‌کند، تاثیرگذار است. به طور مثال، زمانی که در حال تایپ یک واژه کلیدی در موتور جست وجو هستیم، زمانی که موتور جست وجو یک سری کلمات پیش فرض را شبیه به آنچه مدنظر ماست، ارایه می‌ دهد، خود بر تمایل ما به تایید شدن تاثیر می‌گذارد.