طراحی یک مدل برای سازمان اطلاعاتی یک کار پیچیده و چالش برانگیز است که مستلزم بررسی دقیق عوامل مختلف از جمله اهداف، محدوده، ساختار، عملکردها، منابع و فرهنگ سازمان است. در این مقاله، برخی از جنبه‌ها و اصول کلیدی که باید فرآیند طراحی را هدایت کنند، و همچنین برخی از دام‌های رایج و بهترین شیوه‌هایی که می‌توانند به دستیابی به یک نتیجه موفق کمک کنند، مورد بحث قرار خواهیم داد.

یکی از اولین گام ها در طراحی مدل سازمان اطلاعاتی، تعریف هدف و اهداف سازمان است. نیازهای اطلاعاتی و اولویت های اصلی ذینفعان چیست؟ خروجی ها و نتایج مورد انتظار فعالیت های اطلاعاتی چیست؟ سازمان چگونه عملکرد و تأثیر خود را اندازه گیری خواهد کرد؟ این سؤالات می تواند به ایجاد چشم انداز و مأموریت روشن برای سازمان و همچنین مجموعه ای از ارزش ها و اصول اصلی که فرهنگ و هویت آن را شکل می دهد کمک کند.

گام مهم دیگر تعیین محدوده و حدود سازمان است. انواع و منابع اطلاعاتی که سازمان جمع آوری، تجزیه و تحلیل و منتشر خواهد کرد چیست؟ حوزه ها و مناطقی که سازمان تحت پوشش قرار خواهد داد چیست؟ محدودیت های قانونی و اخلاقی که سازمان به آن پایبند خواهد بود چیست؟ این سوالات می تواند به تعریف محدوده اختیارات و مسئولیت سازمان و همچنین ارتباط آن با سایر سازمان های اطلاعاتی و شرکای خارجی کمک کند.

گام بعدی طراحی ساختار و وظایف سازمان است. سازمان چگونه در داخل و خارج سازماندهی خواهد شد؟ نقش و مسئولیت هر واحد و فرد چیست؟ اطلاعات در داخل و بین واحدها چگونه جریان می یابد؟ چگونه هماهنگی و همکاری بین واحدها و سطوح مختلف تسهیل خواهد شد؟ این سوالات می تواند به ایجاد یک نمودار سازمانی واضح و منسجم کمک کند که منعکس کننده تقسیم کار، سلسله مراتب، ارتباطات و مکانیسم های کنترل سازمان باشد.

گام چهارم تخصیص منابع و توانمندی های سازمان است. منابع انسانی، مالی، فنی و فیزیکی که سازمان به آنها نیاز دارد و خواهد داشت چیست؟ چگونه این منابع بین واحدها و عملکردهای مختلف توزیع و مدیریت خواهند شد؟ چگونه این منابع در طول زمان به دست می آیند، نگهداری می شوند و توسعه می یابند؟ این سوالات می تواند به اطمینان حاصل شود که سازمان منابع و قابلیت های کافی و مناسب برای انجام وظایف خود را به طور موثر و کارآمد دارد.

مرحله آخر پیاده سازی و ارزیابی مدل برای سازمان اطلاعاتی است. این سازمان چگونه راه اندازی و عملیاتی خواهد شد؟ چالش ها و خطراتی که سازمان ممکن است در طول اجرای آن با آن مواجه شود چیست؟ سازمان چگونه بر پیشرفت و عملکرد خود نظارت خواهد کرد؟ سازمان چگونه از موفقیت ها و شکست های خود درس خواهد گرفت؟ چگونه سازمان با شرایط و نیازهای متغیر سازگار خواهد شد؟ این سوالات می تواند به اطمینان حاصل شود که سازمان قادر به اجرای استراتژی و دستیابی به اهداف خود و همچنین بهبود مستمر فرآیندها و نتایج است.

طراحی یک مدل برای سازمان اطلاعاتی یک فرآیند یکباره یا خطی نیست، بلکه یک فرآیند تکراری و پویا است که مستلزم بازخورد، تأمل و تعدیل دائمی است. با پیروی از این مراحل و اصول، می توان مدلی را برای سازمان اطلاعاتی طراحی کرد که متناسب با هدف، مؤثر، کارآمد، پاسخگو، شفاف، اخلاقی و سازگار باشد.

مایکروسافت نسخه جدیدی از برنامه پینت (Paint) را در بیلدهای اینسایدر ویندوز 11 منتشر کرده است که با قابلیت جدید آن می‌توان پس‌زمینه تصاویر را تنها با یک دکمه حذف کرد. این نسخه جدید درحال‌حاضر در کانال‌های Dev و Canary منتشر شده است.

طبق گزارش Bleeping Computer، پس از نصب این نسخه جدید، دکمه‌ای تحت عنوان «حذف پس‌زمینه» (Remove Background) در بخش Image نوار ابزار برنامه پینت اضافه خواهد شد که می‌تواند سوژه را از تصویر جدا و سپس پس‌زمینه اطراف آن را حذف کند.

حذف آسان پس‌زمینه تصاویر در نرم‌افزار Paint

در ویدیوی کوتاه زیر می‌توانید نحوه جداسازی پس‌زمینه تصویر توسط این ابزار را مشاهده کنید:

همچنین می‌توانید با انتخاب بخشی از تصویر موردنظر خود، پس‌زمینه آن قسمت را حذف کنید. BleepingComputer توضیح می‌دهد که در آزمایش‌های خود با قابلیت جدید مایکروسافت پینت، این ویژگی عملکرد بسیار خوبی در جداسازی سوژه اصلی عکس و حذف کل پس‌زمینه آن داشته است.

هرچند درحال‌حاضر برنامه‌های ویرایش عکس بسیار زیادی وجود دارند که دارای ویژگی مشابهی برای حذف پس‌زمینه تصاویر هستند، اما وجود آن در پینت برای افرادی که می‌خواهند این کار را با سرعت زیاد و بدون نیاز به نصب برنامه‌های پیشرفته‌تر انجام دهند، مفید خواهد بود.

همچنین برخلاف برنامه‌های دیگری که وجود دارد، استفاده از پینت راحت‌تر و کاملاً رایگان است. به‌ عنوان مثال، Canva قابلیت حذف پس‌زمینه را به‌عنوان یک ویژگی پولی به کاربران خود ارائه کرده است و برای انجام این کار با Adobe Express باید یک حساب کاربری ایجاد کنید.

ویژگی جدید حذ‌ف پس‌زمینه پینت در نسخه 11.2306.30.0 یا نسخه‌های جدیدتر این برنامه وجود دارد و اگر هنوز در دسترس شما قرار نگرفته است، احتمالاً باید مدت‌زمان بیشتری را منتظر بمانید. اخیراً در گزارش دیگری گفته شد که مایکروسافت قصد دارد Paint را به قابلیت‌های هوش مصنوعی برای ساخت تصویر با توضیحات متنی مجهز کند.

متا با مایکروسافت همکاری کرده است تا هوش مصنوعی Liama 2 را به‌عنوان نسل بعدی مدل‌های زبانی برای امور تجاری و تحقیقاتی عرضه کند. این مدل به‌صورت متن‌باز از طریق مایکروسافت آژور، AWS، هاگینگ فیس و دیگر سرویس‌دهندگان هوش مصنوعی عرضه خواهد شد.

مایکروسافت در رویداد Inspire از محصولات جدیدی مثل بینگ چت Enterprise پرده برداشت. متا هم در این رویداد حاضر شد و اعلام کرد با همکاری غول فناوری ردموند، مدل هوش مصنوعی جدید Liama 2 را به‌صورت متن‌باز عرضه می‌کند. همان‌طور که در وب‌سایت مایکروسافت آمده است، این مدل روی آژور و ویندوز پشتیبانی خواهد شد.

علاوه‌براین، متا با کوالکام همکاری خواهد داشت تا Llama 2 را از طریق پلتفرم اسنپدراگون از سال 2024 به گوشی‌ها، لپ‌تاپ‌ها و هدست‌ها بیاورد. با این کار، برای استفاده از قابلیت‌های هوش مصنوعی در اپ‌های مختلف دیگر نیازی به اتکا به سرویس‌های ابری نخواهد بود.

متا می‌گوید Llama 2 را متن‌باز کرده است تا ایمنی این مدل هوش مصنوعی را ارتقا دهد. این شرکت معتقد است که با این کار، توسعه‌دهندگان و محققان می‌توانند این مدل زبانی بزرگ را آزمایش کنند و مشکلات آن را بیابند.

متا می‌گوید Llama 2 فرایند آزمایش از طریق تیم‌های قرمز را هم پشت‌سر گذاشته است. در این آزمایش‌ها از تیم‌هایی در داخل و خارج از شرکت برای اجرای آزمایش‌های تهاجمی علیه یک محصول استفاده می‌شود.

هوش مصنوعی Liama 2 چه فرقی با Liama دارد؟

Llama 2 در دو نسخه عرضه می‌شود: Liama 2 و Liama 2-Chat. نسخه دوم برای گفت‌وگوهای دوطرفه بهینه‌سازی شده است. دو نسخه نسل دوم این هوش مصنوعی همچنین از نظر تعداد پارامترها به سه ویرایش با 7، 13 و 70 میلیارد پارامتر تقسیم می‌شوند.

Llama 2 روی 2 تریلیون توکن آموزش داده شده است. هر توکن یک‌تکه متن مثل یک واژه است. این مقدار در مقایسه با 1.4 تریلیون توکن Llama افزایش قابل‌توجهی داشته. البته در میان رقبا مدل‌هایی مثل PaLM 2 گوگل وجود دارند که روی 3.6 تریلیون توکن آموزش داده شده‌اند.

متا اعلام نکرده است که منبع اطلاعاتی آن‌ها برای آموزش Llama 2 دقیقاً چه چیزهایی بوده و صرفاً می‌گوید اطلاعات خود را از سطح وب به‌دست آورده است. این مدل هوش مصنوعی در بنچمارک‌ها اندکی ضعیف‌تر از مدل‌هایی مثل GPT-4 و PaLM 2 عمل می‌کند. اما متا می‌گوید مدل آن‌ها در ارزش‌یابی‌های انسانی تقریباً به‌خوبی ChatGPT ظاهر شده است.

پیشرفت چشمگیر ابزارهای مبتنی بر AI در طی ماه‌های اخیر، موجب شده است تا شاهد ظهور سرویس‌های متنوع در زمینه‌های مختلفی باشیم که می‌توانند به کاربران در انجام سریع‌تر و بهینه‌تر امور کمک نمایند. برنامه‌نویسی نیز یکی از همین حوزه‌ها به‌شمار می‌رود و گزینه‌های گوناگونی برای کمک به توسعه‌دهندگان در دسترس قرار دارند. در ادامه به معرفی بهترین ابزارهای هوش مصنوعی برای برنامه نویس ها و معرفی مزایای آنها، پرداخته خواهد شد.

هوش مصنوعی برای برنامه نویس ها چه کاربردی دارد؟

ابزارهای هوش مصنوعی برای برنامه نویس ها به منظور نوشتن سریع‌تر و دقیق‌تر کدها پدید آمده‌اند. چنین سرویس‌هایی معمولاً می‌توانند براساس دستورات ورودی، کدهای خروجی را در اختیار کاربر قرار دهند یا به شکل همزمان، اقدام به تکمیل کردن کدهای نوشته شده توسط توسعه‌دهندگان نمایند. بسیاری از آنها، با ادیتورها و محیط‌های توسعه محبوب مثل ویژوال استودیو، تعامل دارند و قادر به تشخیص اشتباهات، باگ‌ها و حتی آسیب‌پذیری‌های امنیتی در موارد خاص هستند.

مشخصاً با توجه به ویژگی‌های گفته شده، مهم‌ترین مزیت استفاده از هوش مصنوعی برای برنامه نویس ها، داشتن وقت آزاد بیشتر خواهد بود. همچنین با افزایش دقت و نیاز کمتر به رفع ایرادات کدها، می‌توانید بهره‌وری خود را افزایش داده و زمان بیشتری را به توسعه محصولات جدید یا انجام امور دیگر، اختصاص دهید.

سیستم‌های هوش مصنوعی فعلی مانند GPT-4 می‌توانند به سبک نویسندگانی ازجمله «مارگارت اتوود» یادداشت و داستان بنویسند و حالا هزاران نویسنده نارضایتی خود را نسبت به این موضوع نشان داده‌اند. در نامه‌ای که توسط بیش از 8500 نویسنده داستان، مطالب غیرداستانی و شعر امضا شده است، شرکت‌های سازنده مدل‌های زبانی بزرگ مانند ChatGPT و Bard به‌دلیل استفاده بدون اجازه از نوشته‌های آن‌ها مورد سرزنش قرار گرفته‌اند. به گزارش TechCrunch، در متن این نامه آمده است:

«این فناوری‌های زبانی، داستان‌ها، سبک و ایده‌های ما را تقلید و آن‌ها را بازگو می‌کنند. سیستم‌های هوش مصنوعی توسط میلیون‌ها کتاب، مقاله و شعر دارای حق چاپ تغذیه شده‌اند و می‌توانند بدون هیچ هزینه‌ای درخواست‌های نامحدودی به کاربران ارائه کنند.»

نکته مشخصی که درباره توسعه‌دهندگان سیستم‌های هوش مصنوعی وجود دارد، این است که آن‌ها بدون کسب مجوز و اجازه از آثار ناشران استفاده کرده‌اند. نویسندگان در نامه خود توضیح می‌دهند:

«با استفاده از نوشته‌های ما در سیستم‌های شما، هوش مصنوعی مولد با پرکردن بازار با کتاب‌‌ها، داستان‌ها و روزنامه‌نگاری متوسط و ماشینی، به حرفه ما آسیب می‌زند.»

خواسته نویسندگان از سازندگان مدل‌های هوش مصنوعی

نویسندگان در این نامه هشدار داده‌اند که با توجه به پیچیدگی‌ها و حواشی مربوط به انتشار آثار بزرگ، وضعیت به‌وجودآمده به‌ویژه به نویسندگان جدیدتر ضربه خواهد زد. آن‌ها از شرکت‌های سازنده مدل‌های هوش مصنوعی خواسته‌اند تا موارد زیر را انجام دهند:

  • دریافت مجوز برای استفاده از مطالب دارای حق نسخه‌برداری در برنامه‌های هو‌ش مصنوعی مولد
  • پرداخت غرامت منصفانه به نویسندگان بابت استفاده مداوم از آثار انسان‌ها در برنامه‌های هوش مصنو‌عی مولد
  • پرداخت غرامت به نویسندگان بابت استفاده از آثار آن‌ها در خروجی‌های هوش مصنو‌عی

این موضوع درحالی اعلام شده است که ابتدا اتحادیه نویسندگان آمریکا (WGA) چند ماه قبل به‌دلیل نگرانی خود نسبت به هوش مصنوعی دست به اعتصاب زد و انجمن بازیگران سینما (فدراسیون هنرمندان تلویزیون و رادیو آمریکا (SAG-AFTRA)) نیز در هفته جاری تصمیم به این کار گرفت.

انتظار می‌رود هوش مصنوعی (AI) تولید ناخالص داخلی جهانی را تا سال ۲۰۳۰ به میزان ۱۵.۷ تریلیون دلار افزایش دهد. شناسایی این پتانسیل بالقوه و خارق‌العاده هوش مصنوعی توسط سرمایه‌گذاران بزرگی همچون وارن بافت موجب شده که تمایل زیادی به خرید سهام‌های هوش مصنوعی نشان دهند، تا جایی که بافت به تازگی اقدام به سرمایه‌گذاری در ۵ سهام هوش مصنوعی کرده است.

به گزارش هوشیو، امسال هیچ نوآوری در وال استریت بیشتر از هوش مصنوعی (AI) مورد توجه سرمایه‌گذاران و متخصصان صنعت مالی قرار نگرفته است.

هوش مصنوعی شامل استفاده از نرم‌افزار و سیستم برای انجام وظایفی است که معمولاً به انسان‌ها محول می‎شود. نکته کلیدی، ادغام یادگیری ماشینی (ML) است که به نرم‌افزار و سیستم‌ها اجازه می‌دهد در طول زمان «یاد بگیرند» و تکامل یابند. بر اساس گزارش PwC، انتظار می‌رود این تحول تا سال ۲۰۳۰ ۱۵.۷ تریلیون دلار به اقتصاد جهانی اضافه کند.

پتانسیل نوآورانه و ارقام هنگفت دلاری پشت هوش مصنوعی توجه بسیاری از موفق ترین مدیران پول وال استریت را به خود جلب کرده است و این شامل وارن بافت مدیرعامل میلیاردر برکشایر نیز می‌شود. بافت با تیم سرمایه‎گذاری خود تقریبا نیمی از سبد ۳۶۵ میلیارد دلاری برکشایر در سه سهام هوش مصنوعی سرمایه‎گذاری شده است.

با این حال، قرار گرفتنBerkshire در معرض هوش مصنوعی به همین جا ختم نمی‌شود. برکشایر هاتاوی، شرکتی که متعلق به وارن بافت است، نه تنها در زمینه هوش مصنوعی سرمایه‌گذاری می‌کند، بلکه دارای یک شرکت سرمایه‌گذاری تخصصی به نام مدیریت دارایی نیوانگلند (NEAM) است. اگرچه بافت مستقیماً بر سرمایه‌گذاری‌های NEAM نظارت نمی‌کند، دارایی‌های ۶۹۰ میلیون دلاری که توسط NEAM نگهداری می‌شود، هنوز بخشی از دارایی‌های کلی بافت است. بنابراین، این مجموعه مخفی وارن بافت است .

از ۳۰ ژوئن، سبد سرمایه‌گذاری خصوصی وارن بافت که ۶۹۰ میلیون دلار ارزش دارد، شامل سرمایه‌گذاری در پنج سهام هوش مصنوعی می‌شود. این اطلاعات از بایگانی‌های فرم ۱۳F می‌آید، که شامل اسنادی است که مدیران سرمایه‌گذاری عمومی مانند شرکت وارن بافت؛ برکشایر هاتاوی، ملزم به ارائه به کمیسیون بورس و اوراق بهادار ایالات‌متحده (SEC) برای افشای دارایی‌های خود هستند.

برای رسیدن به موقعیت کنونی چه مسیری را طی کرده‌ایم؟ در این مسیر به چه قابلیت‌هایی دست پیدا کرده‌ایم؟ و چه پیشرفت‌هایی در انتظار ما است؟ برای پاسخ به این سؤالات باید تاریخچه داده‌ را مطالعه کنیم.

گلن بک و بتی اسنایدر – طرح انیاک، آزمایشگاه پژوهش‌های بالستیک واقع در ساختمان ۳۲۸  ( تصاویر ارتش ایالات متحده، کالیفرنیا. ۱۹۵۵ – ۱۹۴۷). تصاویر ارتش ایالات متحده. این تصویر در تملک عمومی قرار دارد.

آغاز راه (دهه ۴۰ میلادی)

سال‌ها پیش در ماه دسامبر سال ۱۹۴۵، اولین کامپیوتر الکترونیکی- دیجیتالی همه منظوره ساخته شد. این کامپیوتر انیاک ( محاسبه‌گر و یکپارچه‌ساز عددی الکترونیک ) نامیده می‌شد. تا پیش از فرا رسیدن این دوره برای انجام هر کاری  به صورت سفارشی یک کامپیوتر مجزا ساخته می‌شد.

اگر بخواهیم انیاک را با تازه‌ترین پیشرفت‌هایی که در حوزه فن‌آوری حاصل شده مقایسه کنیم باید بگوییم که بیشینه کلاک انیاک تک هسته‌ای حدود ۵ کیلوهرتز بوده، در حالی‌که سرعت ساعت جدیدترین تراشه ۶ هسته‌ای تعبیه شده در آیفون (Apple A13) برابر با ۲.۶۶ گیگاهرتز است. به عبارت دیگر سیکل واحد پردازنده در هر ثانیه بیش از چهار میلیون برابر افزایش یافته و علاوه بر آن تعداد دستورالعمل‌هایی که واحد پردازنده می‌تواند در هر یک از این سیکل‌ها انجام دهد افزایش یافته است.

در طول تاریخ پیشرفت‌های بی‌شماری در حوزه سخت‌افزار حاصل شده و انسان‌ها با اتکاء به این پیشرفت‌ها توانسته‌اند به قابلیت‌های جدیدی در زمینه مهندسی نرم‌افزار دست پیدا کنند. در نتیجه انعطاف‌پذیری نرم‌افزارها افزایش پیدا کرده و در همان حال لازم است مهندسان مسئولیت‌پذیری بیشتری داشته باشند. مسلماً مهندسین آرزو دارند بتوانند نرم‌افزارهایی با همان میزان انعطاف‌پذیری عرضه کنند و در همان حال فشار و زحمت کمتری در این مسیر متحمل شوند

منظور از کلان داده چیست؟

سیر تکاملی داده‌ها (دهه ۶۰ میلادی  دهه ۹۰ میلادی)

در آغاز هزینه استفاده و نگهداری از سرورها زیاد بود و در عین حال فضای حافظه کمکی و حافظه‌ اصلی و هم‌چنین توان محاسباتی آن‌ها محدود بود و به همین دلیل برنامه‌نویس‌ها ،از جمله مدیریت حافظه، برای حل مسائل متحمل زحمت زیادی می‌شدند. در مقابل، امروزه برای انجام این قبیل از کارها ، زبان‌های برنامه‌نویسی‌ با قابلیت زباله‌روبی خودکار در اختیار داریم.

به همین دلیل زبان‌های C، C++ و FORTRAN به طور گسترده مورد استفاده قرار می‌گرفتند و کماکان از آن‌ها در حوزه‌های مهم استفاده می‌شود؛ در این‌گونه حوزه‌ها تلاش ما بر این است که حداکثر استفاده را از کارایی و ارزش یک سیستم داشته باشیم. امروزه نیز اکثر چارچوب‌های یادگیری ماشین و تحلیل دادهبه زبان پایتون برای اطمینان از کیفیت عملکرد، از زبان C استفاده می‌کنند و برنامه‌نویس‌ها فقط از یک API استفاده می‌کنند.

شرکت‌هایی از جمله IBM برای استفاده حداکثری از سیستم‌هایی که داده‌ها را سازمان‌دهی می‌کنند و هم‌چنین به منظور ذخیره‌ کردن، بازیابی و کار کردن با داده‌ها سرمایه‌گذاری‌های کلانی بر روی برخی مدل‌ها انجام داده‌اند. در مقابل مدل سلسله‌ مراتبی از داده‌ها ارائه شده که در طول دوران بزرگ‌رایانه بسیار رایج و متدوال بوده است. شرکت‌ها با ایجاد یک مدل استاندارد میزان فعالیت ذهنی لازم برای شروع یک پروژه را کاهش دادند و دانشی را که می‌توان در پروژه‌های مختلف به کار بست، افزایش دادند.

سیر تکاملی داده‌ها

در گذشته از بزرگ‌رایانه‌ها برای حل مشکلات روز استفاده می‌شد اما این گونه‌ رایانه‌‍‌ها بسیار گران‌قیمت بودند، در نتیجه فقط مؤسسات بزرگ از جمله بانک‌ها توان مالی خرید چنین سیستم‌هایی را داشتند و می‌توانستند به نحوی کارآمد از مزایای آن‌ها بهره‌مند شوند. بزرگ‌رایانه‌ها در پیمایش ساختارهای درختی بسیار کارآمد بودند، اما روابط یک به چند آن‌ها به حدی دقیق و پیچیده است که درک و استفاده از آن‌ها برای برنامه‌نویسان دشوار است.

مدتی بعد مدل‌های رابطه‌ای ساخته شدند که امروزه نیروی اکثر دیتابیس‌های ما را تأمین می‌کنند. در مدل‌های رابطه‌ای داده‌ها به صورت دسته‌های چندتایی (جدول‌ها) با روابط میان آن‌ها نشان داده می‌شوند. یک رابطه‌ معمولی کلیدی خارجی است که مشخص می‌کند داده‌های درون دو جدول باید با یکدیگر ارتباط داشته باشند. به بیانی ساده‌تر شما نمی‌توانید نمره‌‌هایی از یک آزمون درسی داشته باشید اما دانش‌آموزانی که در این آزمون شرکت کرده‌اند را نداشته باشید و نمی‌توانید کلاسی از دانش‌آموزان داشته باشید اما معلمی نباشد که به آن‌ها درس بدهد.

دیاگرام رابطه‌ای
دیاگرام رابطه‌ای نشان می‌دهد جدول‌ها چگونه می‌توانند از طریق idها با یکدیگر ارتباط داشته باشند.

با توجه به ساختار داده‌ها می‌توانیم یک زبان استاندارد تعریف کنیم و از این طریق با داده‌هایی که ساختار مشابهی دارند کار کنیم.  سازنده اصلی مدل‌های رابطه‌ای، زبان پرسمان ساختاریافته (SQL) را هم ایجاد کرده که زبانی برای مدیرت داده‌ها است. دلیل آن هم این است که خواندن SQL بسیار آسان است و در همان حال بسیار توانمند است. چنانچه سیستم قابلیت اجرای تابع بازگشتی و تابع پنجره‌ را داشته باشد، SQL تورینگ کامل خواهد بود.

تورینگ کامل به این معناست که اگر زبان زمان کافی داشته باشد می‌تواند تمامی مشکلات محاسباتی را حل کند. توانایی حل تمامی مشکلات محاسباتی در زمان کافی یکی از ویژگی‌ها و قابلیت‌های ممتاز SQL است، اما به این معنی نیست که برای انجام هر کاری می‌توان از آن استفاده کرد. به همین دلیل از SQL برای بازیابی و دسترسی به داده‌ها و از پایتون و زبان‌های دیگر برای تحلیل پیشرفته داده‌ها استفاده می‌کنیم.

شرکت Oracle در سال ۱۹۷۹  اولین دیتابیس رابطه‌ای را عرضه کرد.  این سیستم‌ها سیستم‌های مدیریت دیتابیس رابطه‌ای (RDBMS) نامیده می‌شوند. از آن زمان به بعد RDBMSهای متن‌باز و تجاری زیادی عرضه شده است. تمامی این عوامل دست به دست یکدیگر دادند تا Apache Software Foundation به یکی از شرکت اصلی ارائه‌دهنده ابزارهای حوزه «کلان داده» تبدیل شود. با در اختیار داشتن پروانه‌های آسان‌گیر این شرکت می‌توان در زمان استفاده از کد منبع اصلی کتابخانه فعالیت‌های تجاری را انجام داد.

این‌گونه سیستم‌ها عملکرد بسیار خوبی در مدیریت و دسترسی به داده‌هایی با ساختارهای داده‌ای نرمال‌سازی‌شده دارند. با وجود این، همزمان با افزایش حجم داده‌ها، عملکرد آن‌ها تحت تأثیر حجم کاری زیاد، کاهش پیدا می‌کند. تکنیک‌های بهینه‌سازی بسیاری از جمله شاخص‌‌گذاری و read-replicas و غیره داریم که می‌توانیم با استفاده از آن‌ها فشار و حجم کاری سیستم‌ها را کاهش دهیم.

جهان متصل و انواع گوناگون داده‌ها (دهه ۹۰ میلادی)

پیش از راه‌یابی کامپیوترها به خانه‌ها و پیش از این‌که هر فردی یک تلفن همراه شخصی داشته باشد، ارتباطات مردم با یکدیگر محدود و داده‌های مربوط به این ارتباطات به میزان قابل توجهی کم بود. تقریباً تمامی وب‌سایت‌هایی که به آن‌ها مراجعه می‌کنید پیگیری جریان اطلاعات را فعال کرده‌اند تا درک بهتری از تجارب کاربران به دست بیاورند و از این طریق نتایج شخصی‌سازی‌شده بیشتری به کاربران ارائه دهند.

پس از ان‌که جمع‌آوری داده‌ها به صورت خودکار درآمد و کاربران مجبور بودند نظرات و بازخوردهای خود را در قالب پیمایش، تماس‌های تلفنی و غیره ارائه دهند، روند جمع‌آوری داده سیر صعودی در پیش گرفت. امروزه فعالیت‌های ما معرف ما هستند و اعمال و فعالیت‌های ما بیشتر از افکار و سخنان ما در معرفی ما نقش دارند. از مدت‌ها پیش نتفلیکس دیگر به شما اجازه نمی‌دهند به فیلم‌ها امتیاز دهید و یا آن‌ها را رتبه‌بندی کنید، چرا که متوجه شده‌اند این  اطلاعات به درک بهتر از این اکوسیستم کمکی نمی‌کند.

شاخص جست‌و‌جوی گوگل و نیاز به MapReduce (اوایل دهه اول قرن بیست و یک)

گوگل جز اولین‌ شرکت‌هایی است که از فن‌آوری‌های پیشرفته برای جمع‌آوری داده‌ها در حجم بالا استفاده کرد؛ هرچند امروزه شرگت گوگل به عنوان یکی از سودآورترین شرکت‌‌های دنیا شناخته می‌شود اما در اواخر دهه ۹۰ میلادی بودجه کلانی کنونی را در اختیار نداشت. مزیت رقابتی شرکت گوگل در حجم داده‌ای است که در اختیار دارد و علاوه بر این می‌تواند به بهترین نحو از این داده‌ها استفاده می‌کند.

در زمان آغاز به کار شرکت گوگل تیم مهندسی آن با مشکل پیچیده‌ای رو به رو شد و میباست آن را رفع کند، اما آن‌ها توان مالی خرید سخت‌افزار شرکتی را نداشتند؛ این سخت‌افزار بسیار گران بود و شرکت‌های قدیمی‌تر برای انجام امور خود به آن متکی بودند. هرچند در آن ‌زمان توان محاسباتی این شرکت بیشتر از شرکت‌های دیگر نبود اما با آن‌ها برابری می‌کرد. تقاضا برای خدمات شرکت گوگل و به طور کلی

وب‌سایت آن رو به افزایش بود و شرکت گوگل برای آن‌که بتواند پاسخ‌گوی نیاز کاربران باشد سیستم فرانکنشتاین را ساخت. قطعات به کار رفته در سِروِر آن‌ها کیفیت پایینی داشت و برای استفاده مصرف‌کنندگان معمولی طراحی و تولید شده بودند و احتمال خطا در آن‌ها وجود داشت و علاوه بر این، کُدی که از آن‌ها استفاده می‌کرد، مقیاس‌پذیر نبود و نسبت به این خرابی‌ها مصون نبود.

منظور از کلان داده چیست؟

در آن زمان جِف دین و سانجی قماوات مهندسان ارشد شرکت گوگل بودند. آن‌ها با جدیت تمام در حال بازنویسی کُدبیس گوگل بودند تا مقاومت آن را در مقابل خرابی‌ها افزایش دهند. یکی از اصلی‌ترین مشکلاتی که با آن مواجه بودند این بود که این سخت‌افزار در حین اجرای برنامه‌ها متوقف می‌شد و می‌بایست آن را مجدداً راه‌اندازی کرد. این دو فرد در هنگام رفع مشکل کدبیس، متوجه یک الگوی ثابت شدند که می‌توانند چارچوب را بر مبنای آن بسازند. این الگو MapReduce نامیده می‌شد.

MapReduce یک مدل برنامه‌نویسی است و شامل دو مرحله است، مرحله نگاشت و مرحله کاهش. منظور از نگاشت شکستن یک تسک بزرگ به تسک های کوچک تر است و منظور از کاهش جمع بندی تمام نتایج برای تولید نتیجه کار اولیه است. این چارچوب دارای یک رابط ساده است که با استفاده از آن می‌توان یک کار را در میان ورکِرهای مختلف یک خوشه به اجزای کوچک‌تر تقسیم کرد. اگر بتوانیم کاری را به قسمت‌های کوچک‌تر تقسیم کنیم، در صورت بروز هر گونه خطا می‌توانیم کار را بدون نیاز به اجرای مجدد آن،  بازیابی کنیم. علاوه بر این، تقسیم یک کار به قسمت‌های کوچک‌تر به این معناست که سیستم‌ مقیاس‌پذیرتر و قوی‌تر است. راه‌های زیادی برای ارتقای عملکرد سیستم MapReduce وجود دارد و همزمان با توضیح لایه‌های انتزاعی آن‌ها را نیز بررسی می‌کنیم.

شاخص جست‌و‌جوی گوگل

گوگل با استفاده از MapReduce توانست مقیاس زیرساخت خود را با سرور‌هایی که ارزان بودند و ساخت و نگهداری آن‌ها آسان بود، افزایش دهد. آن‌ها می‌توانند به صورت خودکار خطاهای کد را بررسی کنند و حتی می‌تواند به آن‌ها هشدار دهد که ممکن است سرور به تعمیر نیاز داشته باشد و برخی قطعات را باید جایگزین کرد. این کار موجب شده گراف وب به اندازه‌ای بزرگ شود که فقط ابرکامپیوترها بتوانند مقیاس آن را اداره کنند.

جف دین و سانجی قماوات کماکان در این شرکت فعالیت دارند و در بسیاری از پیشرفت‌هایی که در حوزه فن‌آوری حاصل شده و چشم‌انداز داده را شکل داده مشارکت داشته‌اند.

MapReduce به عنوان یک پیاده‌سازی متن باز- مقدمه‌ای بر Hadoop (اواسط دهه اول قرن بیست و یک)

شرکت گوگل ابزارهاِ گوناگون را برای استفاده در سیستم‌های داخلی و درون‌سازمانی خود طراحی و تولید می‌کند. اما این شرکت دانش خود را در قالب مقالات علمی در اختیار دیگران قرار می‌دهد. در مقاله MapReduce: پردازش آسان داده در خوشه‌های بزرگ مدل برنامه‌نویسی MapReduce به طور خلاصه توضیح داده شده است و در قسمت ضمیمه نمونه‌ای از پیاده‌سازی الگوریتم شمارش کلمات قرار داده شده است.

تعداد کدهایی که برای نوشتن یک کار MapReduce لازم است بیشتر از تعداد کدهای پایتون برای انجام همان کار است. کدهای پایتون فقط بر روی یک ریسه واحد اجرا می‌شود و توان عملیاتی آن محدود است، در مقابل MapReduce با هر تعداد سروری که برای انجام یک کار نیاز داریم، مقیاس‌بندی می‌شود.

تفاوت سیستم‌های اولیه با سیستم‌های امروزی در پیچیده‌ بودن و قابلیت مقیاس‌پذیری آن‌ها است و سیستم‌های اولیه‌ای که MapReduce را توانا می‎ساختند بسیار پیچیده بودند.

اواسط دهه اول قرن بیست و یک داک کاتینگ و مایک کافارلا مقاله گوگل حول موضوع MapReduce را مطالعه کردند و علاوه بر این مقاله دیگری حول موضوع سیستم فایل توزیع‌شده گوگل موسوم به سیستم فایل گوگل مطالعه کردند. در آن زمان این دو فرد بر روی یک خزنده وب توزیع شده موسوم به Nutch کار می‌کردند و متوجه شدند آن‌ها هم برای مقیاس‌­پذیر کردن سیستم‌ خود همین مشکل را دارند.

داگ به دنبال یک شغل تمام وقت بود و در نهایت به استخدام یاهو در آمد و از آن‌ جایی که در آن زمان یاهو از شرکت گوگل عقب مانده بود، ایده ساخت سیستم‌ متن باز برای توانا ساختن شاخص‌گذاری مقیاس بزرگ را از داگ خرید. شرکت یاهو کاتینگ را استخدام کرد و از او خواست به کار کردن بر روی پروژه Nutch که باعث بسط دادن سیستم فایل توزیع‌شده و چارچوب محاسباتی می‌شد ادامه دهد و این در حالی بود که سیستم فایل توزیع‌شده و هم‌چنین چارچوب محاسباتی از اجزای اصلی هدوپ بودند.

سیستم فایل توزیع‌شده و چارچوب محاسباتی سیستم فایل توزیع‌شده هدوپ و Hadoop MapReduce نامیده می‌شدند. هم‌زمان با این‌که  سیستم فایل توزیع‌شده و چارچوب محاسباتی در هدوپ خلاصه شدند، هدوپ وارد چرخه هایپ (محبوبیت) شد و به همین دلیل این نامگذاری کمی عجیب به نظر می‌رسد.

MapReduce برای مصون ماندن در مقابل خطاهایی که در کل پشته سخت‌افزار روی می‌دهد، از سیستم فایل توزیع‌شده استفاده می‌کند. جِف دین این مطلب را در ظهور سیستم‌های رایانش ابری توضیح داده و در بخشی از این مقاله عنوان می‌کند که « قابلیت اطمینان باید از جانب نرم‌افزارها تأمین شود» و در ادامه خطا‌هایی که در سال ۲۰۰۶ در یک خوشه معمولی گوگل  روی داده را شرح می‌دهد:

  • کابل‌کشی مجدد شبکه ( حدود ۵ درصد از ماشین‌ها به مدت دو روز خاموش می‌شوند)
  • خطای رَک (۴۰ تا ۸۰ ماشین درون یک رک ناپدید شدند، بازگرداندن آن‌ها ۱ تا ۶ ساعت طول کشید)
  • رَک‌ها ضعیف شدند ( ۴۰ تا ۸۰ ماشین درون یک رک با ۵۰ درصد مشکل ارتباطی مواجه شدند)
  • نگهداری شبکه ( ممکن است به طور تصادفی باعث قعطی ۳۰ دقیقه‌ای در ارتباطات شود)
  • بارگذاری مجدد مسیر ( سرویس DNS و vipهای مجازی برای دقایقی از دسترس خارج شدند)
  • خطاهای مسیریاب ( ترافیک داده‌‌ها برای یک ساعت قطع می‌شود )
  • ده‌هاخطای کوچک سی ثانیه‌ای بر روی سرویس DNS، تقریباً ۱۰۰۰ ماشین خاموش شدند
  • خطا در دیسک حافظه موجب کندی، مشکل در حافظه، اشتباه در تنظیمات ماشین‌ها، ماشین‌های بی‌ثبات و غیره می‌شود

روش‌های زیادی برای ارتقای عملکرد پشته وجود دارد، برای مثال می‌توان داده‌ها را در حجم کم جا به جا کرد و از این طریق تأخیر در شبکه را به حداقل رساند. به منظور دست‌یابی به این هدف به جای این‌که حافظه کمکی را NFS و یا SAN نگهداری کنیم، با استفاده از دیسک‌های بزرگ محاسبه را در حافظه انجام می‌دهیم. در زمان انجام محاسبات در حافظه نمی‌خواهیم یک گره خاص در یک خوشه محاسبات بسیار زیادی انجام دهد چرا که حاوی داده است. علاوه بر این باید یک کپی از داده‌ها تهیه کنیم، در این صورت اگر گره‌ای از کار افتاد با مشکل مواجه نخواهیم شد و می‌توانیم کار را تقسیم کنیم. اگر به نمونه خطا‌هایی که گوگل توضیح داده نگاهی بیندازیم، متوجه می‌شویم که باید آمادگی لازم برای مقابله  با خطاهای گره‌ها و خطای رک را داشته باشیم . به عبارت دیگر باید با انواع خطاهای رک در حافظه آشنایی داشته باشیم و چندین کپی از داده‌ها داشته باشیم.

کلان داده
«مجموعه¬ای از تاخیرها که هر برنامه نویسی باید بداند» – پی. استارک

اولین مدل MapReduce به نام Hadoop MapReduce به دانش زیادی در زمینه فرایند MapReduce و مبانی بهینه‌سازی عملکرد در چارچوب نیاز داشت. یکی از اصلی‌ترین مشکلات MapReduce این بود که نمی‌توانستیم فرایندهای پیچیده‌ای بر روی آن تعریف کنیم. در آن زمان سیستمی  برای ایجاد منطق‌های پیچیده وجود نداشت.

در عوض، Hadoop MapReduce بلوک‌های سطح پایین‌تر را برای انجام محاسبات مقیاس‌پذیر ارائه می‌داد  اما نمی‌توانست به نحوی کارآمد آن‌ها را هماهنگ کند. یکی دیگر از نقاط ضعف Hadoop MapReduce استفاده از دیسک بود و چیزی بر روی حافظه ذخیره نمی‌شد. در زمان عرضه MapReduce حافظه بسیار گران بود و اگر حافظه‌ پر می‌شد، در انجام کارها اختلال به وجود می‌آمد . همه مواردی که به آن‌ها اشاره کردیم نشان می‌دهند که Hadoop Reduce کند و نوشتن برای آن دشوار بوده، اما در همان حال ثابت و مقیاس‌پذیر بود.

به منظور حل این مشکلات چندین راهکار از جمله Pig (رونویسی، Hive ( زبان پرسمان ساختاریافته)، MRJob (پیکربندی) ارائه شد. تمامی این راهکارها موجب شدند MapReduce، الگوریتم‌های تکراری، بویلرپلیت کمتر، انتزاع‌ ( مخفی کردن نحوه پیاده‌سازی) بهتر کد را توانا سازد. وجود این‌گونه ابزارها به افرادی که تخصص کمتری در حوزه مهندسی نرم‌افزار دارند و تجربه کمتری در حوزه جاوا دارند کمک کرد از مزایای «کلان داده» بهره‌مند شوند.

کاهش مسئولیت‌پذیری و افزایش انعطاف‌پذیری با استفاده از انتزاع‌ها (اوایل دهه دوم قرن بیست و یکم)

همزمان با ظهور و افزایش میزان استفاده از فن‌آوری ابری با وب‌ سرویس‌های آمازون (AWS) در اوایل دهه دوم قرن بیست و یکم، این سؤال برای مردم پیش آمد که چگونه می‌توانند حجم کاری هدوپ را بر روی AWS اجرا کنند. AWS تمامی شرایط و ویژگی‌های لازم برای اجرای حجم‌های کاری تحلیلی را داشت، حجم‌های کاری تحلیلی برای مدت زمان کوتاهی اجرا می‌شدند و سرورها در مدت زمان باقی‌مانده در یک مرکز داده منتظر باقی می‌ماندند.

با وجود این در آن زمان Hadoop MapReduce تا حد زیادی به سیستم فایل HDFS متکی بود. در آن زمان استفاده از راهکارهای ذخیره‌سازی مقیاس‌پذیر غیر ممکن بود؛ این راهکارها که محصول فن‌آروی ابری بودند و می‌توانستند خوشه‌ها را از رده خارج کنند. چگونه می‌توانستیم این حجم‌کاری را به ابر منتقل کنیم و همزمان با مقیاس‌پذیر کردن حجم کاری خود هزینه‌ها را کاهش دهیم و از مزایای فضاهای ابری بهره‌مند شویم؟ اگر محدودیت‌ عدم استفاده از حافظه را برطرف می‌کردیم و شرایطی فراهم می‌کردیم تا داده‌ها را با مقدار تأخیر کمتری در حافظه نگهداری کنیم چه اتفاقی می‌افتاد؟ چگونه می‌توانیم فرایندهای تکرار‌پذیر همچون فرایندهای یادگیری ماشین را انجام دهیم؟

Spark  ابتدا در سال ۲۰۱۴ با هدف تحقق همین اهداف عرضه شد. مقاله اصلی در سال ۲۰۱۰ منتشر شد. نویسندگان این مقاله متوجه شدند اگر فقط کمی از حافظه استفاده شود عملکرد تا ۱۰ برابر افزایش پیدا می‌کند و علاوه بر این پیچیدگی‌های برنامه‌نویسی تا حد زیادی کاهش پیدا می‌کند.

Spark 1.x عملکرد بسیار خوبی در مقیاس‌بندی و کار کردن با داده‌ها نداشت. مدل برنامه‌نویسی Spark 1.x  کماکان پیچیده است و برای نوشتن کد به دانش زیادی لازم است. Spark انعطاف‌پذیری زیادی داشت و مجموعه‌ای از مسئولیت‌ها که وجود آن‌ها ضروری نبود را حذف کرد. Spark ابزار نسل دوم و فوق‌العاده ای بود و از آن زمان شهرت و محبوبیت آن افزایش چشمگیری داشته است. در ابتدا عملکرد آن نسبت به هدوپ بهتر بود و همزمان با شکل‌گیری نیازهای جدید، Spark نیز تکامل پیدا کرد.

مقایسه Spark و هدوپ توسط Google Trends
مقایسه Spark و هدوپ توسط Google Trends

ارتقای تجارب (اواسط دهه دوم قرن بیست و یک)

تا سال ۲۰۱۶ ، Spark به اندازه کافی تکامل یافته بود و به همین دلیل مردم به استفاده از این مدل برنامه‌نویسی روی آوردند. از افرادی که در زمینه مهندسی نرم‌افزار تجربه نداشتند خواسته می‌شد از داده‌ها خلق ارزش کنند. به همین دلیل حوزه علم داده بر استخراج ارزش از داده‌ها به روشی علمی متمرکز بود و مسیر  پیشرفت و تکامل را در پیش گرفته بود.

Pandas به عنوان ابزاری معرفی شد که همه می‌توانند با بهره‌گیری از آن با داده‌ها کار کنند و به همین دلیل شهرت زیادی پیدا کرد. Pandas یک API ساده در اختیار کاربران قرار می‌داد. این ابزار را وِس مک‌کینی در Two Sigma ساخت؛ هدف از ساخت این ابزار آسان کردن زندگی برای پژوهش‌گران کمّی بود. این پژوهش‌گران برای تحلیل داده‌ها مجبور بودند یک کد را بارها ایجاد کنند. Two Sigma این کتاب‌خانه را به صورت متن‌باز در آورد و آن را به الگویی برای چگونگی برقراری ارتباط انسان‌ها با داده‌ها تبدیل کرد.

گروهی که بر روی Spark کار می‌کردند متوجه شدند که بسیاری از کاربران آن‌ها کارهای اولیه خود را در Pandas انجام می‌دهند و پس از آن‌که ایده‌های‌شان به اندازه کافی پرورش یافت از Spark  استفاده می‌کنند. استفاده جداگانه از این دو ابزار موجب شد بار کاری انسجام نداشته باشد و برای آن‌که کد مناسب مدل MapReduce در Spark  شود باید آن را دوباره می‌نوشتند.

Spark به دلیل این‌که کاربران از Pandas استفاده می‌کردند DataFrame API را اضافه کرد که از Pandas API تقلید می‌کرد؛ به عبارت دیگر، کاربران Spark می‌توانستند از همان بارکاری استفاده کنند اما می‌بایست آن را در مقابل موتور MapReduce اسپارک اجرا کنند ، در این حالت امکان مقیاس‌بندی حتی در طول مرحله تحلیل نیز وجود داشت.

علاوه بر کاربرد برنامه‌ای Spark، تعدادی از کاربران آن‌ها تمایل داشتند از SQL برای دسترسی به داده‌ها استفاده کنند. همان‌گونه که پیش از این گفتیم، از SQL تقریباً به مدت پنجاه سال برای دسترسی به داده‌ها استفاده می‌شود. تیم Spark در آن زمان تصمیم فوق‌العاده‌ای گرفتند، آن‌ها تصمیم گرفتند Spark SQL را توانا سازند اما از همان موتور بهینه‌سازی که برای DataFrame API نوشته بودند، استفاده کند.

استفاده از یک موتور بهینه‌سازی واحد موجب می‌شد  کدی که می‌نوشتند رابط SQL و هم‌چنین رابط برنامه‌ای آن‌ها را تحت تأثیر قرار دهد. این موتور بهینه­ساز Catalyst  نامیده می‌شد و همانند بهینه‌ساز برنامه پرسمان در یک RDBMS قدیمی کار می‌کرد. Spark 2.0 تمامی این قابلیت‌ها را داشت و به همین دلیل کارایی آن تا حد زیادی افزایش یافت.

بهینه¬سازCataliyst توسط Databricks
بهینه سازCataliyst توسط Databricks

کاهش مسئولیت با همان میزان انعطاف‌پذیری (۲۰۲۰)

ماه ژوئن سال ۲۰۲۰ جدیدترین و پیشرفته‌ترین نسخه Spark یعنی Spark 3.0 عرضه شد، این نسخه از Spark قابلیت‌های جدیدی ندارد اما عملکرد، قابلیت اطمینان و قابلیت استفاده آن ارتقا پیدا کرده است.

به منظور ارتقای عملکرد، Spark  اجرای تطبیقی پرسمان
  و حذف پویای پارتیشن را اضافه کرده است، هر دوی مواردی که از آن‌ها نام برده شد حتی در حوزه RDBMS نیز پیشرفت‌های نسبتاً جدیدی به حساب می‌آیند. ارتقای عملکرد می‌تواند مزایای بسیاری به همراه داشته باشد. مطابق با معیارهای TPC-DS، حذف پویای پارتیشن از ۶۰ پرسمان از میان ۱۲۰ پرسمان بین ۲ برابر و ۱۸ برابر ارتقا پیدا می‌کند.

به عبارت دیگر، اگر شرکت‌ها از Spark استفاده کنند، محاسبات کمتری باید انجام دهند و هزینه‌های آن‌ها در زمینه زیرساخت کاهش پیدا می‌کند و بیشتر بر روی نتایج تمرکز می‌کنند. کاربران به این قابلیت‌های جدید واقف هستند و نیازی به بازنویسی کدها وجود ندارد.

برای افزایش قابلیت اطمینان، تیم Spark تعداد قابل توجهی از باگ‌ها (۳.۴۰۰) را بین شاخه‌های ۲.x و ۳.۰ رفع‌ کردند و این امکان را برای کاربران فراهم کردند تا بهتر بتوانند خطاهای پایتون را کنترل کنند تا استفاده از API پایتون آسان‌تر شود. علاوه بر این، ارتقای عملکرد موجب می‌شود بدون نیاز به تغییر مدل مسئولیت Spark، انعطاف‌پذیری آن افزایش پیدا کند.

برای افزایش قابلیت استفاده، Spark یک UI جدید برای استفاده در موارد کاربرد جدید ارائه داده است که اطلاعات بیشتری راجع به آمارهای mini batch و به طور کلی وضعیت پایپ لاین ارائه می‌دهد. در بسیاری از موارد کاربرد، به سختی متوجه می‌شدیم که چه زمانی سیستم تأخیر دارد و چگونه می‌توانیم به نحوی کارامد به این تغییرات از جمله مقیاس‌بندی گره‌های جدید یا مقیاس‌بندی به منظور کاهش هزینه‌ها واکنش نشان دهیم.

Spark 3.0 بدون کاهش میزان انعطاف‌پذیری، مسئولیت کاربران نهایی را کاهش می‌دهد و کماکان به پیشرفت و ارتقای این حوزه کمک می‌کند. این قابلیت Spark به ما کمک می‌کند چالش‌های بیشتری را حل کنیم و تا حد زیادی عملیات‌های خود را ارتقا دهیم و و بر روی کارهای ارزش‌آفرین تمرکز کنیم.

داده
تاریخچه عرضه ابزارهای مورد استفاده در حوزه «کلان داده». همان‌گونه که در تصویر فوق نشان داده‌ شده، تا چندی پیش هر دو سال یک بار در زمینه انتزاع (مخفی‌کردن نحوه پیاده‌سازی) پیشرفت‌هایی حاصل می‌شد. همزمان با تکامل MapReduce و دسترسی کاربران به پشته فن‌آوری، ترندهای اخیر افزایش میزان استفاده از فن‌آوری ابری را نشان می‌دهند.

چالش‌های امروز – آینده پیش رو

در این مقاله به بحث و گفت‌و‌گو راجع به هدوپ و Spark پرداختیم و سیر تکامل و پیشرفت این حوزه را در طول زمان بررسی کردیم. بیش از ۱۰۰ ابزار در حوزه «کلان داده» وجود دارد که هر کدام موارد کاربرد خاصی دارند و برای حل مشکلات و مسائل خاصی طراحی شده‌اند. اگر به رابط‌هایی مشابه SQL داده‌ها در چارچوب‌های توزیع‌شده نگاهی بیندازید، به Hive، Presto و Impala می‌رسید که هر کدام مسئول حل چالش‌های متفاوتی در این حوزه بوده‌اند. چنانچه به پیاپی‌سازی داده از جمله CSV قدیمی و ناکارآمد علاقه‌مند هستید تا ذخیره‌سازی و مدت زمان محاسبه را کاهش دهید به Avro، Parquet، ORC و Arrow می‌رسید.

از زمان آغاز چرخه هایپ «کلان داده» در سال ۲۰۱۰، پیشرفت‌های زیادی در این حوزه حاصل شده است. در حال حاضر شرکت‌هایی از جمله آمازون، مایکروسافت و گوگل خدمات ابری ارائه می‌دهند و قابلیت‌هایی را ممکن می‌سازند که پیش از این داشتن آن‌ها در حد رویا بود. فن‌آوری ابری بر مقیاس‌پذیری بارکاری متمرکز است. در عوض شما مبلغی مازاد بر ارزش واقعی مرکز داده پرداخت می‌کنید و نیاز به حفظ و نگهداری جنبه‌های فنی، عملیاتی، نظارتی و  غیره زیرساخت مرکز داده را کاهش می‌دهید. اگر موارد کاربرد تحلیلی را بررسی کنیم متوجه می‌شویم که در همه آن‌ها از سخت‌افزار استفاده می‌شود و به همین دلیل می‌توانیم از فن‌آوری ابری در آن‌ها استفاده کنیم.

ارائه‌دهندگان خدمات ابری برای بار کاری «کلان داده» فرایند مقیاس‌بندی عمودی و افقی و کاهش مقیاس را بر روی راهکارهای خود انجام می‌دهند. برای نمونه می‌توان به EMR (آمازون)، Azure Databricks (مایکروسافت) و Dataproc (گوگل) اشاره کرد که هر کدام از این ارائه‌دهندگان از بار کاری موقتی بر ر روی فضای ابری پیشتیبانی می‌کنند. این ارائه‌دهندگان راهکارهایی از جمله ذخیره‌سازی اشیا S3، Azure Lake Storage و Google Cloud Storage برای ذخیره‌سازی ارائه دادند و انجام محاسبات را به فضای دیگری- به غیر از حافظه- منتقل کردند.

اگر می‌خواهید تحلیلی انجام دهید، آن را در خوشه‌ای مجزا انجام می‌دهید بدون این‌که بر روی کارهای در حال اجرای دیگران تأثیر بگذارید. تنظیم دقیق خوشه چالش بسیار بزرگی بود چرا که بارهای کاری‌ مختلف چالش‌های عملکردی متفاوتی دارند. با رفع این چالش، متخصصین می‌توانند به جای تمرکز بر روی زیرساخت، توجه خود را به تحقق اهداف معطوف کنند.

افزون بر این، ما می‌خواهیم فشار بر روی کدها را هم کم کنیم. در دنیای امروزی موارد کاربرد لحظه‌ای و بی‌شماری داریم. پیش از این مجبور بودیم دو کد بیس جداگانه داشته باشیم تا بتوانیم عملکردی درخور هر یک از موارد کاربرد داشته باشیم. پس از مدتی متوجه شدیم که دسته فقط یک مورد خاص اجرا است، پس بهتر نیست روش استفاده از آن را به کار ببندیم؟ Flink، Spark و Beam به روش‌های متفاوتی در تلاش هستند تا این مشکل را حل کنند، چه به صورت first-class citizen (Beam)  یا با تغییر APIهای خود تا آن را برای کاربران نهایی آسان کنند (Flink\Spark).

در مرکز تمامی این پیشرفت ها نیاز به توانا سازی تحلیل‌های پیچیده دیتاست‌های حجم بالا احساس می‌شود. ما باید موارد کاربرد یادگیری ماشین و هوش مصنوعی را برای داده‌ها آسان کنیم. برای انجام این کار، فقط پردازش داده‌ها کافی نیست، باید بتوانیم این فرایند را بدون دخالت کاربر نهایی انجام دهیم. استفاده همگانی از ابزارهای هوش مصنوعی و یادگیری ماشین طی بیست سال گذشته با استفاده از scikit-learn، Keras ، Tensorflow، Pytorch، MXNet و تعداد زیادی دیگری از کتابخانه‌ها صورت گرفته است تا امکان مدل‌سازی آماری و هم‌چنین موارد کاربرد یادگیری عمیق را فراهم سازد. هدف از استفاده از این ابزارها در حوزه کلان داده درس گرفتن از این ابزارها و استفاده مستقیم از آن‌ها است.

منظور از کلان داده چیست؟

ده‌ها میلیون انسان، میلیاردها حسگر، تریلیون‌ها تراکنش اکنون برای ایجاد مقادیر غیرقابل تصور اطلاعات کار می‌کنند. آیا این حجم از داده را می‌توان به روش‌های سنتی ذخیره، پردازش و نگهداری نمود؟ بدون شک پاسخ منفی است. در این جاست که بحث کلان‌داده با نام‌های دیگری نظیر بیگ دیتا، داده‌های بزرگ و مَه‌داده مطرح می‌شود. کلان‌داده با سه ویژگی اصلی حجم زیاد، سرعت تولید بالا و تنوع زیاد توانسته کسب‌وکارهای مختلفی را دچار تحول نماید و مرزهای دانش را در زمینه‌های گوناگون جا به جا کند. در این بخش به معرفی این منبع ارزشمند و فناوری‌های مرتبط با آن، انواع کلان‌داده و کاربردهای آن در حوزه‌های مختلف اشاره می‌کنیم. پس با ما همراه باشید.

تعریف کلان داده

کلان‌داده که معمولا در کنار مفاهیمی نظیر داده‌کاوی و یا هوش تجاری شنیده می‌شود، پیش‌نیاز اصلی برای انجام تحلیل‌های پیشرفته است. به عبارت دیگر کلان داده‌ متشکل از حجم فزاینده‌ای از داده‌های متنوع است که با سرعت بسیار بالا تولید می‌شوند.

به دلیل حجم زیاد و سرعت تولید بالا کلان‌داده‌ دیگر نمی‌توان آن را توسط سخت‌افزارها و نرم‌افزارهای سنتی پردازش داده مدیریت کرد. این امر باعث شده که بسیاری از افراد و یا سازمان‌ها به طور تخصصی بر روی راهکارهای پردازش کلان‌داده‌ها تمرکز نمایند زیرا با وجود چالش‌های موجود در نگهداری، پردازش و مدیریت این داده‌های وسیع، می‌توان به کمک آنها بسیاری از مشکلات تجاری که قبلا مقابله با آنها بسیار دشوار بود را به راحتی حل کرد. در زیر به چند نمونه از اثرات پردازش کلان‌داده‌ها و تأثیر حضور آنها در دنیای امروز اشاره می‌کنیم:

  • تعیین علل ریشه ای خرابی‌ها، مسائل و عیوب در لحظه
  • تشخیص ناهنجاری‌ها، سریع‌تر و دقیق‌تر از چشم انسان
  • بهبود نتایج بیمار با تبدیل سریع داده‌های تصویر پزشکی به بینش
  • محاسبه مجدد کل پرتفوی ریسک در چند دقیقه
  • تشدید توانایی مدل‌های یادگیری عمیق برای طبقه‌بندی دقیق و بروز واکنش مناسب به متغیرهای دائما در حال تغییر

کلان داده چه ویژگی‌هایی باید داشته باشد؟

همانطور که در تعریف کلان‌داده اشاره شد، این مجموعه از داده‌ها دارای سه ویژگی اصلی حجم فزاینده (Volume)، تنوع (Variety) و سرعت تولید بالا (Velocity) هستند که اصطلاحا به آنها ۳V می‌گویند که به طور شماتیک در شکل زیر نشان داده شده است:

حجم (Volume): حجم کلان‌داده از سایز ترابایت تا زتابایت و حتی بیشتر متغیر است.

تنوع (Variety): با توجه به اینکه داده‌های موجود در کلان‌داده‌ها از منابع مختلفی بوجود می‌آیند، بنابراین فرم‌های مختلفی دارند، از داده‌های ساختاری و عددی در پایگاه‌های داده سنتی گرفته تا اسناد متنی بدون ساختار، ایمیل‌ها، فیلم‌ها، فایل‌های صوتی، داده‌های مربوط به سهام و تراکنش‌های مالی.

سرعت تولید (Velocity): یکی از تفاوت‌های اصلی کلان‌داده‌ها با مجموعه‌های سنتی داده، سرعت تولید و ذخیره‌سازی آنها است. با رشد اینترنت اشیا، داده‌ها با سرعت بی‌سابقه‌ای وارد کسب‌وکارها می‌شوند و باید به موقع مدیریت شوند. تگ‌های RFID، حسگرها و کنتورهای هوشمند نیاز به مقابله با این حجم زیادی از داده‌ها را در زمان واقعی ایجاد می‌کنند.

البته لازم به ذکر است، امروزه، دو ویژگی‌های دیگری نظیر صحت و ارزش، به این مجموعه ۳V به عنوان ویژگی‌های اصلی کلان‌داده‌ها اضافه شده است که بیشتر بر کیفیت یک کلان‌داده دلالت می‌کنند:

صحت (Veracity): داده‌های اشتباه و یا غیردقیق به راحتی می‌توانند افراد و سازمان‌ها را از مسیر درست و بهینه منحرف کنند. منظور از داده‌های اشتباه و یا غیر دقیق، وجود تعصب، ناهنجاری‌ها یا ناسازگاری‌ها، تکثیرها و بی ثباتی‌ها است که می‌تواند کیفیت یک کلان‌داده و متعاقبا تحلیل‌های برگرفته از آن را به شدت تحت تأثیر قرار دهد.

ارزش (Value): کلان‌داده زمانی مفید است که پردازش آن ما را به اهدافمان نزدیکتر کند و بینش‌هایی را فراهم کند تا بتوان در تصمیم‌گیری از آن استفاده کرد. لزوما نگهداری و ثبت هر داده‌ای این مشخصات را ندارد. بنابراین یکی از معیارهای کیفی کلان‌داده ارزش داده‌های موجود در آن است.

نمونه‌هایی از کلان داده

در این بخش، به نمونه‌ای از شرکت‌هایی که با بهره‌گیری از کلان‌داده‌های خود توانستند به میزان قابل توجهی پیشرفت کنند اشاره می‌کنیم تا بتوانیم درک عمیق‌تری از این مفهوم و اهمیت آن پیدا کنیم.

آمازون

بدون شک یکی از قدرتمندرین شرکت‌ها در زمینه تجارت الکترونیک است که بخشی اعظمی از قدرت خود را مدیون پایگاه داده بزرگش است. این شرکت توانسته به طور مداوم از کلان‌داده‌اش برای بهبود تجربه مشتریان خود استفاده کند، در اینجا تنها به دو مورد از استفاده آمازون از مجموعه‌های عظیم داده‌هایش اشاره می‌کنیم:

  • قیمت‌گذاری پویا

همه می‌دانند که خطوط هوایی هنگام فروش بلیط هواپیما از تکنیک قیمت‌گذاری پویا استفاده می‌کنند، اگر بلیط‌های یکسان را بارها و بارها بررسی کنید، احتمالاً به این معنی است که واقعاً آنها را می‌خواهید و حاضرید برای آنها هزینه بیشتری بپردازید. همین منطق در وب سایت آمازون پیاده سازی شده است. اما چیزی که احتمالاً نمی دانستید این است که آنها قیمت‌های خود را تا ۲.۵ میلیون بار در روز تغییر می دهند. عواملی مانند الگوهای خرید، قیمت‌های رقیب و نوع محصول بر این تغییرات قیمت تأثیر می‌گذارد که همگی با پردازش کلان‌داده حاصل می‌گردد.

  • پیشنهاد محصول

فرقی نمی‌کند که شخص محصولات را بخرد، آن را در سبد خرید بگذارد یا حتی فقط نگاهی به آن بیندازد، آمازون از آن داده‌ها استفاده خواهد کرد. به این ترتیب آنها می‌توانند یاد بگیرند که هر مشتری چه چیزی می خواهد و دوست دارد، که همان محصول یا محصولات مشابه را زمانی که مجددا بازگشت به او توصیه کنند. از این طریق آمازون توانسته ۳۵ درصد از فروش سالانه خود را انجام دهد!

مک‌دونالد

صنعت غذا و روندهای موجود در آن همیشه در حال تغییر هستند و افراد در این زمینه بخواهند در اوج بمانند، باید بتوانند با آنها تغییر کنند و این دقیقا همان کاری است که مک دونالد انجام داده است. با افزایش روند زندگی سالم و استفاده از سفارش آنلاین، خیلی از فست فودها با مشکل مواجه شدند. در این زمان مک‌دونالد تصمیم‌ گرفت از داده‌هایی که طی سال‌ها جمع‌آوری کرده بود، استفاده کند. آنها می‌خواستند از بازاریابی انبوه به سفارشی سازی انبوه منتقل شوند که برای انجام چنین کاری، باید قفل داده‌ها را به گونه‌ای باز می‌کردند که برای مشتریان مفید باشد.

استفاده از کلان‌داده باعث شد که آنها به منوهای دیجیتالی روی آورند که بر اساس عوامل مختلفی نظیر زمان، آب و هوا و داده های گذشته فروش تغییر می‌کند. به این ترتیب آنها می توانند به مشتریان خود یک نوشیدنی سرد در یک روز گرم یا شاید یک قهوه همراه با منوی صبحانه در یک روز سرد پیشنهاد دهند.

علت اهمیت کلان داده

اهمیت داده‌های بزرگ صرفاً به میزان داده‌ها بستگی ندارد، بلکه ارزش آنها به نحوه استفاده شما بستگی دارد. با گرفتن داده‌ها از هر منبع و تجزیه و تحلیل صحیح آن، می‌توانید به موارد زیر به راحتی دست پیدا کنید:

  • تصمیم‌گیری سریع‌تر و بهتر

کسب‌وکارها می‌توانند به حجم زیادی از داده‌ها دسترسی داشته باشند و منابع متنوعی از داده‌ها را تجزیه و تحلیل کنند تا بینش جدیدی به دست آورند و اقدامی مناسب انجام دهند.

  • کاهش هزینه و افزایش بهره‌وری عملیاتی

ابزارهای انعطاف‌پذیر پردازش و ذخیره‌سازی داده‌ها نظیر سرورهای ابری می‌توانند به سازمان‌ها در صرفه‌جویی هزینه‌ها در ذخیره‌سازی و تجزیه و تحلیل مقادیر زیادی از داده کمک کنند تا بتوان از طریق آنها الگوهای نهفته و بینش‌ها را کشف کرد و کسب و کار کارآمدتری را ایجاد نمود.

  • بهبود ورود آگاهانه به بازار

تجزیه و تحلیل داده‌ها از حسگرها، دوربین‌ها، گزارش‌ها، برنامه‌های کاربردی تراکنش، وب و رسانه‌های اجتماعی، سازمان را قادر می‌سازد که داده محور باشد و بتواند نیازهای مشتری و ریسک های بالقوه را اندازه گیری کند و آگاهانه محصولات و خدمات جدید ایجاد و ارائه نماید.

انواع کلان داده

کلان‌داده‌ را می‌توان با توجه به نوع داده‌هایی که در خود ذخیره می‌کند به سه دسته کلی زیر تقسیم‌بندی کرد:

ساختاریافته: هر داده‌ای که بتوان آن را به طور مستقیم پردازش و به آن دسترسی پیدا کرد و به صورت یک فرمت ثابت ذخیره نمود، داده ساختاریافته نامیده می شود که در جدول زیر نمونه‌ای از این نوع داده نشان داده شده است. در طول برهه‌ای از زمان، به دلیل توانایی در مهندسی نرم‌افزار، در ایجاد تکنیک‌هایی برای کار با این نوع داده‌ها پیشرفت‌های چشم‌گیری ایجاد گردید. با این حال، با افزایش چشم‌گیر حجم داده‌ها در کلان‌داده‌ها، پردازش این نوع از داده‌ها با چالش‌هایی همراه بوده است. با این وجود، مشکلات پردازش کلان‌داده‌های ساختار یافته به نسبت پردازش داده‌های ساختار نیافته کمتر است.

انواع کلان داده

ساختار نیافته: کلان داده ساختارنیافته شامل تعداد زیادی از داده‌های بدون ساختار نظیر فایل‌های تصویری، صوتی، متنی و فایل‌های ویدئویی است. هر داده‌‍‌ای که دارای ساختار یا مدل ناآشنا باشد به عنوان داده بدون ساختار در نظر گرفته می‌شود. تعداد این نوع از داده‌ها بسیار زیاد می‌باشد به همین دلیل این نوع از کلان‌داده از اهمیت بسزایی برخوردار است. با این حال با توجه به نیاز به آماده‌سازی این نوع از داده‌ها جهت پردازش، مشکلات متفاوتی در بهره‌برداری از آن‌ها وجود دارد.

نیمه ساختار یافته: کلان‌داده نیمه ساختاریافته همانطور که از نامش نیز مشخص است متشکل از داده‌های ساختاریافته و ساختارنیافته است. این نوع از کلان‌داده‌ها به طور خاص به داده‌هایی اشاره می‌کنند که با وجود اینکه در قالب یک پایگاه داده مشخص قرار نگرفته باشند، اما حاوی برچسب‌ها و یا اطلاعات ضروری هستندکه اجزای منفرد را در داخل داده‌ها جدا می‌کند.

منابع اصلی دسترسی به کلان داده

داده‌های موجود در کلان‌داده‌ها از منابع مختلفی بدست می‌آیند که در این بخش به اصلی‌ترین آنها اشاره می‌گردد:

  1. داده‌های جریانی (Streaming data) از اینترنت اشیا (IoT) و سایر دستگاه‌های متصل به سیستم‌های فناوری اطلاعات از داده‌های مکانی افراد، ابزارهای پوشیدنی، خودروهای هوشمند، دستگاه‌های پزشکی، تجهیزات صنعتی و غیره بدست می‌آیند. شما می‌توانید این کلان‌داده را به محض رسیدن تجزیه و تحلیل کنید، تصمیم بگیرید که کدام داده را نگه دارید یا نه، و کدام یک نیاز به تجزیه و تحلیل بیشتری دارد.
  2. داده‌های موجود در سایت‌ها و رسانه‌های اجتماعی که ناشی از تعاملات بین افراد در فیس‌بوک، یوتیوب، اینستاگرام و غیره می‌باشند. این داده‌ها در قالب‌های تصویر، ویدیو، صدا، متن و صدا جمع‌آوری می‌شوند که برای عملکردهای بازاریابی، فروش و پشتیبانی مفید هستند. این کلان‌داده‌ها اغلب به شکل‌های بدون ساختار یا نیمه ساختار یافته هستند، بنابراین چالش‌هایی منحصر به فرد برای بهره‌برداری و تحلیل آنها وجود دارد.
  3. داده‌های در دسترس عموم از حجم عظیمی از منابع داده باز مانند مرکز آمار ایران، data.gov دولت ایالات متحده و یا پورتال داده باز اتحادیه اروپا به دست می‌آیند.
  4. سایر کلان داده‌ها که ممکن است از دریاچه‌های داده (Data Lake)، منابع داده‌های ابری، تأمین‌کنندگان و مشتریان به دست آیند.

فناوری‌های کلان‌داده

معماری کلان داده

همانند معماری در ساخت و ساز ساختمان، معماری کلان‌داده نیز طرحی برای ساختار اساسی نحوه مدیریت و تجزیه و تحلیل داده‌های کسب و کارها ارائه می‌دهد. معماری کلان‌داده فرآیندهای لازم برای مدیریت کلان داده را در چهار “لایه” اساسی، از منابع داده، تا ذخیره سازی‌داده، سپس به تجزیه و تحلیل داده‌های بزرگ و در نهایت لایه مصرف که در آن نتایج تجزیه و تحلیل انجام شده در قالب هوش تجاری ارائه می‌شود، ترسیم می‌کند.

کلان‌داده و Apache Hadoop

۱۰ سکه در یک جعبه بزرگ را با ۱۰۰ نیکل در نظر بگیرد. حال ۱۰ جعبه کوچکتر را در کنار هم، هر کدام با ۱۰ نیکل و فقط یک سکه تصویر کنید. در کدام سناریو تشخیص سکه‌ها آسان‌تر خواهد بود؟

Hadoop اساساً بر اساس این اصل کار می‌کند و به عنوان یک چارچوب منبع باز برای مدیریت پردازش داده‌های بزرگ توزیع شده در شبکه‌ای از تعداد زیادی رایانه‌های متصل مورد استفاده قرار می‌گیرد. بنابراین به جای استفاده از یک کامپیوتر بزرگ برای ذخیره و پردازش تمام داده‌ها، Hadoop چندین کامپیوتر را در یک شبکه تقریبا بی‌نهایت و مقیاس‌پذیر، خوشه‌بندی کرده و داده‌ها را به صورت موازی تجزیه و تحلیل می‌کند. این فرآیند معمولاً از یک مدل برنامه‌نویسی به نام MapReduce بهره می‌گیرد که پردازش کلان‌داده‌ را با تجمیع رایانه‌های توزیع شده میسر می‌کند.

دریاچه داده، انبار داده و NoSQL

پایگاه داده‌های سنتی به سبک صفحه گسترده SQL برای ذخیره‌سازی داده‌های ساختاریافته مناسب است. کلان‌داده ساختار نیافته و نیمه ساختاریافته به پارادایم‌های ذخیره‌سازی و پردازش متفاوتی نیاز دارد، زیرا ایندکس‌گذاری و یا طبقه بندی نشده‌اند. دریاچه‌های داده، انبارهای داده و پایگاه های داده NoSQL همگی مخازن داده‌ای هستند که مجموعه‌های داده بدون ساختار و یا نیمه‌ساختاری را مدیریت می‌کنند. دریاچه داده مجموعه وسیعی از داده‌های خام است که هنوز پردازش نشده است. انبار داده مخزنی برای داده‌هایی است که قبلاً برای هدف خاصی پردازش شده‌اند.

پایگاه‌های داده NoSQL طرحی انعطاف‌پذیر ارائه می‌کنند که می‌توانند متناسب با ماهیت داده‌های مورد پردازش اصلاح شوند. هر یک از این سیستم‌ها نقاط قوت و ضعف خود را دارند و بسیاری از کسب و کارها از ترکیبی از این مخازن داده‌ای مختلف استفاده می‌کنند تا به بهترین نحو با نیازهای خود مطابقت داشته باشند.

پایگاه داده In-memory

پایگاه داده‌های سنتی مبتنی بر دیسک با در نظر گرفتن فناوری‌های SQL و پایگاه داده رابطه‌ای توسعه یافته اند. این نوع از پایگاه داده‌ها ممکن است بتوانند حجم زیادی از داده‌های ساختاریافته را مدیریت کنند، اما برای ذخیره و پردازش داده‌های بدون ساختار مناسب نیستند. برخلاف نیاز به بازیابی داده‌ها از یک سیستم مبتنی بر دیسک، در پایگاه داده‌های In-memory، پردازش و تجزیه و تحلیل به طور کامل در RAM انجام می‌شود. پایگاه‌های داده درون حافظه نیز بر اساس معماری‌های توزیع شده ساخته شده‌اند. به عبارت دیگر، آنها می‌توانند با استفاده از پردازش موازی، بر خلاف مدل‌های پایگاه داده مبتنی بر دیسک تک‌گره‌ای، به سرعت‌های بسیار بیشتری دست یابند.

کلان داده در رایانش ابری

پردازش کلان‌داده بر پایه رایانش ابری نقطه مقابل ذخیره‌سازی محلی بر روی وسایل الکترونیکی  با کامپیوترهاست. شرکت‌های ارائه دهنده خدمات رایانش ابری مسئولیت سرورها، ذخیره‌سازی، منابع محاسباتی، پایگاه داده، شبکه و نرم‌افزارها را برعهده می‌گیرند و شما تنها از طریق اینترنت می‌توانید بنا به نیاز خود از این قابلیت‌ها استفاده کنید بدون اینکه نگران جزئیات فنی آن باشید.

رایانش ابری توانسته یک تغییر اساسی در مصرف داده، ارائه خدمات و همکاری در سطح سازمانی ایجاد کند. سرویس‌های ابری با ارائه مقرون به صرفه دسترسی سریعتر به داده‌ها، ذخیره‌سازی تطبیقی، زیرساخت، پلت‌فرم، نرم افزار و منابع پردازشی، چابکی و کشش را به میزان قابل توجهی افزایش می‌دهد. می‌توانید از رایانش ابری برای خودکارسازی بسیاری از این مؤلفه‌ها در زمینه کلان‌داده نیز استفاده کنید.

این امر فرآیندها را ساده می‌کند و تلاش‌های شما را سریعتر به نتیجه می‌رساند. معمولا سازمان‌هایی که در همان ابتدای استفاده از کلان‌داده سراغ رایانش ابری نمی‌روند، بعد از مدتی پشیمان خواهد شد زیرا با توجه به ماهیت حجم بالا و تولید سریع داده‌ها در کلان‌داده در بیشتر اوقات با محدودیت‌های ذخیره‌سازی و پردازشی مواجه می‌شوند.

کلان‌داده‌ها چگونه کار می‌کنند؟

پیش از آنکه هر کسب‌وکاری بتواند از فناوری بیگ ‌دیتا به نحو احسن استفاده کند، لازم است نحوه جریان آن را در میان تعداد زیادی از مکان‌ها، منابع، سیستم‌ها، مالکان و کاربران بررسی کنند. به طور کلی سه مرحله کلیدی جهت بهره‌مندی از قدرت بیگ‌دیتا برای هر سازمان وجود دارد که به شرح زیر می‌باشد:

جمع‌آوری داده

همانطور که در قسمت «منابع اصلی دسترسی به کلان‌داده» اشاره شد؛ بسیاری از داده‌های بزرگ از مجموعه‌های عظیمی از داده‌های بدون ساختار تشکیل شده که از منابع متفاوت و متناقضی دریافت می‌شوند. پایگاه داده‌های سنتی مبتنی بر دیسک و مکانیسم‌های یکپارچه‌سازی داده‌ها به درستی نتوانستند با مدیریت این موضوع کنار بیایند. مدیریت کلا‌ن‌داده مستلزم اتخاذ راه‌حل‌های پایگاه داده In-memory و راه‌حل‌های نرم‌افزاری خاص برای کسب داده‌های بزرگ است.

دسترسی، مدیریت و ذخیره کلان‌داده‌ها

سیستم‌های محاسباتی مدرن سرعت، قدرت و انعطاف‌پذیری لازم برای دسترسی سریع به مقادیر و انواع عظیم داده‌های بزرگ را فراهم می‌کنند. در کنار دسترسی مطمئن، شرکت‌ها همچنین به روش‌هایی برای یکپارچه‌سازی داده‌ها، ایجاد خطوط لوله داده، اطمینان از کیفیت داده‌ها، ارائه حاکمیت و ذخیره‌سازی داده‌ها و آماده‌سازی آنها برای تجزیه و تحلیل نیاز دارند. برخی از کلان‌داده‌ها ممکن است در محل در یک انبار داده سنتی ذخیره شوند. با این حال، بیگ‌دیتا زمانی بهترین عملکرد را دارد که محدودیت اندازه و حافظه نداشته باشد، بنابراین می‌توان به گزینه‌های انعطاف‌پذیر و کم‌هزینه‌ای برای ذخیره و مدیریت داده‌های بزرگ از طریق راه‌حل‌های ابری، دریاچه‌های داده، خطوط لوله داده و Hadoop روی آورد.

پردازش کلان داده

 سازمان‌ها با فناوری‌هایی با کارایی بالا مانند محاسبات شبکه‌ای یا تجزیه و تحلیل درون حافظه‌ای، می‌توانند انتخاب کنند که از کل داده‌های خود برای تجزیه و تحلیل استفاده کنند و یا قبل از تجزیه و تحلیل، مشخص کنند کدام داده‌ها برای هدف در پیش گرفته‌اشان مناسب است. در هر صورت، تجزیه و تحلیل کلان ‌داده نحوه کسب ارزش و بینش شرکت‌ها از داده‌ها است. داده‌های بزرگ به طور فزاینده‌ای، فناوری‌های تحلیلی پیشرفته امروزی مانند هوش مصنوعی (AI) و یادگیری ماشین را تغذیه می‌کنند.

چه سازمان‌ها و ارگان‌هایی از بیگ‌دیتا استفاده می‌کنند؟

باید این موضوع را قبول کنیم دیگر روش‌های سنتی مدیریت کسب و کار  همراه با سعی و خطای فراوان، پاسخگوی نیاز بازار رقابتی امروز نخواهد بود. با توجه به رشد روزافزون فناوری‌های نوینی مانند کلان‌داده‌ها، هوش مصنوعی، اینترنت اشیا و غیره، انجام اشتباهات مکرر و عدم توجه به داده‌های موجود در آن صنعت تنها می‌تواند آن کسب و کار را به منجلاب برشکستگی ببرد. بنابراین داده‌ها همچون سایر منابع یک سازمان باید در حفظ و مدیریت آن‌ها کوشا بود.

اما همانطور که بارها به آن اشاره شد لزوما حجم مقدار داده جمع‌آوری شده نمی‌تواند به تنهایی مفید باشد، بلکه تجزیه و تحلیل آن است که بینش‌های ارزشمند را به مدیران و صاحبان کسب‌وکارها ارائه می‌دهد. با اشاره به برخی از کاربردهای کلان داده در صنایع مختلف در بخش آتی متوجه خواهید شد، کلان داده برای هر نوع سازمانی صرف نظر از نوع فعالیت‌هایی که انجام می‌دهند، می‌تواند مفید و ارزشمند باشد.

کاربردهای کلان داده

کاربرد کلان داده در دیجیتال مارکتینگ

یکی از زمینه‌های که کلان‌داده‌ها اثرات ارزشمند خود را به اثبات رسانده‌اند، حوزه دیجیتال مارکتینگ و تجارت الکترونیک است. از جمله مزایایی ارزشمند کلان‌داده‌ها در این صنعت می‌توان به موارد زیر اشاره کرد:

– طراحی کمپین‌های بازاریابی بهتر بواسطه شناخت نیازهای مشتریان و هدف‌گذاری مناسب

– اتخاذ تصمیمات بهتر برای قیمت‌گذاری به دلیل تجزیه و تحلیل در لحظه بازار

– طراحی بهینه محتویات سایت‌ها با توجه به مطالعه رفتار افراد در حین مراجعه به سایت

به بیان کلی‌تر، به کمک کلان‌داده می‌توان مشتریان، نظرات و احساساتشان را شناخت و آنها را طبقه‌بندی نمود، ترندهای موجود در بازار را شناسایی کرد و عملکرد رقیبان در این زمینه را تجزیه و تحلیل کرد.

کلان داده در بانکداری

در مجله “Big Data”، یک مطالعه در سال ۲۰۲۰ اشاره ‌کرده است که کلان‌داده‌ نقش مهمی در تغییر بخش خدمات مالی، به ویژه در تجارت و سرمایه‌گذاری، اصلاحات مالیاتی، کشف و بررسی تقلب، تجزیه و تحلیل ریسک و اتوماسیون ایفا کرده‌اند. همچنین به کمک تجزیه و تحلیل داده‌های مربوط به مشتریان و بازخوردهایشان می‌توان به بینش ارزشمندی جهت بهبود رضایت و تجربه مشتری در صنعت مالی دست یافت.

از طرف دیگر، روزانه داده‌های تراکنشی زیادی تولید می‌شوند که یکی از سریع‌ترین و بزرگترین کلان‌داده‌ها را در جهان تشکیل می‌دهد. پذیرش روزافزون راه‌حل‌های پیشرفته مدیریت کلان‌داده‌ها به بانک‌ها و مؤسسات مالی کمک می‌کند که از این داده‌ها محافظت کنند و از آن‌ها در راه‌هایی استفاده کنند که هم از مشتری و هم از کسب‌وکار بتوانند به خوبی در مقابل راه‌های کلاهبرداری و تقلب محافظت نمایند.

کلان داده در پزشکی

تجزیه و تحلیل کلان داده به متخصصان حوزه پزشکی و سلامت اجازه می‌دهد تا تشخیص‌های دقیق‌تر و مبتنی بر شواهد را انجام دهند. از طرف دیگر هر فرد می‌تواند با دریافت توصیه‌های پزشکی شخصی‌سازی شده از بروز و یا گسترش بیماری جلوگیری کند. بیگ دیتا به مدیران بیمارستان‌ها نیز کمک می‌کند تا روندها را شناسایی کنند، خطرات را مدیریت کنند و هزینه‌های غیرضروری را به حداقل برسانند تا بتوانند بیشترین مقدار بودجه را به حوزه‌های مراقبت و تحقیق از بیمار هدایت کنند.

تمامی این موارد با استفاده از فناوری‌های mHealth، eHealth، ابزارهای پوشیدنی میسر می‌گردد. کلان‌داده‌های پزشکی شامل داده‌های پرونده الکترونیکی سلامت، داده‌های تصویربرداری، اطلاعات مربوط به هر بیمار و داده‌های حسگر می‌باشند که در حال حاضر کنترل دقت، باورپذیری و مدیریت آنها از مهم‌ترین چالش‌ها در این زمینه محسوب می‌شود.

در بحبوحه همه‌گیری کرونا، دانشمندان در سراسر جهان به دنبال راه‌های بهتری برای درمان و مدیریت ویروس کووید ۱۹ بوده‌اند که کلان‌داده‌ها در این فرایند نقش بسزایی ایفا کرد. مقاله‌ای در جولای ۲۰۲۰ در ژرونال The Scientist توضیح می‌دهد که چگونه تیم‌های پزشکی قادر به همکاری و تجزیه و تحلیل داده‌های بزرگ برای مبارزه با ویروس کرونا بودند: «ما روش انجام علم بالینی را تغییر داده‌ایم و از ابزارها، منابع کلان داده و علم داده‌ها به روش‌هایی استفاده کردیم که بیش از این ممکن نبود.»

کلان داده در سازمان‌های دولتی

استفاده و پذیرش کلان داده در فرآیندهای دولتی عملکرد را از نظر هزینه، بهره‌وری و نوآوری به میزان قابل توجهی افزایش می‌دهد، اما بدون نقص نیست. تجزیه و تحلیل داده‌ها اغلب به بخش‌های متعدد دولت (مرکزی و محلی) نیاز دارند تا با همکاری یکدیگر کار کنند و فرآیندهای جدید و نوآورانه‌ای را برای ارائه نتیجه مطلوب ایجاد کنند.

یک سازمان دولتی رایج که از داده‌های بزرگ استفاده می‌کند، وزارت اطلاعات است که فعالیت‌های اینترنت را به‌طور مداوم بر اساس الگوهای بالقوه فعالیت‌های مشکوک یا غیرقانونی، رصد می‌کند. سازمان مدیریت بحران نمونه دیگری است که با دریافت اطلاعات از منابع مختلف و تجزیه و تحلیل آنها می‌تواند خدمت‌رسانی به مردم آسب‌دیده را بهبود بخشد و فرایند اطلاع‌رسانی را تسریع ببخشد.

کاربرد کلان‌داده در آموزش

کلان‌داده‌ در زمینه آموزش به عنوان بستری برای آموزش و تربیت نسل‌های آینده توانسته بسیار مثمرثمر واقع شود. یکی از اثربخش‌ترین تأثیرات این فناوری، فراهم نمودن آموزش شخصی‌سازی شده برای محصلین بوده که با جمع‌آوری داده‌های مربوط به هر فرد و تجزیه و تحلیل آن می‌توان الگوی مناسب یادگیری را برای آن شخص پیدا نمود. این امر باعث شکوفایی استعدادها، پویایی محیط آموزش و جلوگیری از دلزدگی و ناامیدی شده است.

در طول همه‌گیری کرونا، تأثیر استفاده از کلان‌داده‌ بسیار ملموس‌تر از گذشته به چشم آمد. در این دوران، موسسات آموزشی در سراسر جهان مجبور شدند برنامه‌های درسی و روش‌های آموزشی خود را برای حمایت از یادگیری از راه دور ابداع کنند. یکی از چالش‌های اصلی این فرآیند، یافتن راه‌های قابل اعتماد برای تحلیل و ارزیابی عملکرد دانش‌آموزان و اثربخشی کلی روش‌های تدریس آنلاین بود.

مقاله‌ای در سال ۲۰۲۰ در مورد تأثیر کلان داده بر آموزش و یادگیری آنلاین بیان کرده که کلان داده باعث شد، سیستم‌های آموزشی بتوانند در شخصی‌سازی آموزش و توسعه یادگیری تطبیقی، تغییر سیستم‌های ارزیابی و ترویج یادگیری مادام العمر، اعتماد به نفس بیشتری داشته باشند.

آموزش کلان داده

کلان داده زمینه وسیعی است و برای کسانی که می‌خواهند کسب مهارت و تخصص در این حوزه را آغاز کنند ممکن است اندکی طاقت‌فرسا باشد. البته لازم به ذکر است که نقش‌هایی که در این حوزه نیز مطرح می‌شوند نیز بسیار مهم هستند که به طور کلی به دو نقش اصلی مهندس داده و تحلیل‌گر داده تقسیم‌بندی می‌شوند. این دو حوزه به هم وابسته ولی از یکدیگر متمایز هستند.

آموزش کلان داده

مهندسی کلان داده حول طراحی، استقرار، کسب و نگهداری (ذخیره) حجم زیادی از داده‌ها می‌چرخد. در حالی که تحلیل‌گران داده‌های بزرگ حول مفهوم استفاده و پردازش مقادیر زیادی داده تمرکز دارند. تجزیه و تحلیل داده‌های بزرگ شامل تجزیه و تحلیل روندها، الگوها و توسعه سیستم‌های طبقه‌بندی و پیش‌بینی است. بنابراین، به طور خلاصه، تحلیل‌گر کلان‌داده به محاسبات پیشرفته بر روی داده‌ها می‌پردازد، در حالی که مهندسی کلان‌داده بر روی طراحی و استقرار سیستم‌ها و تنظیماتی تمرکز می‌کند که محاسبات باید درون آنها انجام شود.

به طور کلی پنج موضوع اصلی لازم است جهت آموزش کلان داده به ویژه برای مهندسین کلان‌داده مورد مطالعه قرار گیرد:

  1. آشنایی با مفاهیم کلان‌داده، انواع پایگاه داده (رابطه‌ای، NoSQL و غیره) و سیستم‌های ذخیره‌سازی توزیع شده
  2. انواع پردازش‌ها اعم از توزیع شده و موازی
  3. آشنایی با نحوه کار و تسلط بر اکوسیستم Hadoop
  4. پردازش با پردازش و تحلیل داده‌ها توسط Spark
  5. آشنایی با کلان داده در رایانش ابری

در این راستا دوره‌های آموزشی و کتاب‌های زیادی در این زمینه وجود دارد که در ادامه به برخی از آنها اشاره می‌گردد:

کتاب‌های حوزه کلان داده

– کتاب “Big Data: A Revolution That Will Transform How We Live, Work, and Think” نوشته V. Mayer-Schönberger و K. Cukier و منتشر شده در سال ۲۰۱۴

Big Data: A Revolution That Will Transform How We Live, Work, and Think

– کتاب “”Hadoop: The Definitive Guide نوشته Tom White و منتشر شده در سال ۲۰۰۹

Hadoop: The Definitive Guide

– کتاب”Python for Data Analysis: Data Wrangling with Pandas, NumPy, and IPython”  نوشته W. McKinney و منتشر شده در سال ۲۰۱۱

Python for Data Analysis: Data Wrangling with Pandas, NumPy, and IPython

– کتاب ” Practical Data Science with R” نوشته N. Zumel و J. Mount و منتشر شده در سال ۲۰۱۴

آینده کلان داده

کلان داده با قابلیت‌های گسترده‌ای که می‌تواند برای یک کسب و کار ایجاد نماید خود را تبدیل به یکی از منابع بسیار با ارزش کرده که استفاده بهینه از آن برای ادامه حیات هر سازمانی در این عرصه رقابتی امروز ضروری است.  سازمان‌ها به کمک فناوری کلان‌داده می‌توانند از گذشته درس بگیرند، و رفتارهای آینده مشتریان خود را پیش‌بینی کنند. همچنین به کمک این فناوری می‌توان به گسترش دانش در زمینه‌های مختلف بسیار امیدوار بود. اما با وجود مزایای بیشماری که کلان داده‌ها می‌توانند برای سازمان‌ها داشته باشند، چالش‌هایی را نیز به همراه دارند.

امنیت داده‌ها یکی از هراس‌های اخلاقی است که هر سازمان را ممکن است در استفاده از کلان‌داده دچار مشکل نماید. داده‌های جمع‌آوری شده در کلان‌داده به مرور تبدیل به یکی از هویت‌های اصلی آن سازمان می‌شوند که به همان میزانی که می‌توانند سودآور باشند، اگر در معرض حملات سایبری قرار گیرند به همان میزان و یا شاید بیشتر می‌توانند آسیب‌رسان باشند.

همچنین با توجه به رشد نمایی این داده‌ها، به خصوص داده‌های ساختار نیافته؛ جهت ذخیره، پردازش و مدیریت آنها نیاز به سخت‌افزارها و نرم‌افزارهای قوی‌تر از آنچه که امروز وجود دارد، حس می‌شود. در حال حاضر دانشمندان داده ۵۰ تا ۸۰ درصد از زمان خود را صرف نگهداری و آماده‌سازی داده ها پیش از استفاده می‌کنند که مقدار قابل توجهی است. می‌توان خیلی خلاصه گفت که همگام بودن با فناوری کلان‌داده، خود یک چالش مداوم است!

با شتابی که هوش مصنوعی دارد پیشرفت می‌کند و رد پایش در جای‌جای زندگی و کارمان پیداست، در آینده‌ای نه‌چندان دور  بخش مهمی از زندگی ما را در بر خواهد گرفت. روزی می‌رسد که هوش ماشینی علاوه بر اینکه به ما پیشنهاد می‌کند چه آهنگی گوش کنیم یا چه رنگ لباسی به پوستمان می‌آید، به‌جای پزشک و قاضی و پلیس هم تصمیم‌گیری خواهد کرد. اما هوش مصنوعی چیست؟ تاریخچه پیدایش این فناوری، کاربردهای هوش مصنوعی و وضعیت کسب‌وکار آن در جهان و ایران چگونه است؟ و نمونه های جدید هوش مصنوعی مانند ChatGPT و bard چه کاربردی دارند؟ در ادامه به این سوالات پاسخ داده شده است.

هوش مصنوعی چیست؟

بی‌راه نیست اگر بگوییم تصور عمومی از هوش مصنوعی با تصویر ربات‌ها گره خورده است. این تصور بیش از همه حاصل فیلم‌ها و انیمیشن‌های علمی-تخیلی است. گرچه این تصور رگه‌هایی از واقعیت هوش مصنوعی را در خود دارد، اما تعریف دقیقی از این علم نیست.

در واقع ما امروز برای رسیدن به آن چیزی که در فیلم‌ها و سریال‌های هالیوودی می‌بینیم راه بسیاری در پیش داریم. البته عجیب نیست که غیرمتخصصان از این حوزه تصور درستی نداشته باشند، جالب است بدانید که نظرسنجی‌ها نشان می‌دهد حتی رهبران کسب‌وکارهای بزرگ نیز درک جامعی از وضعیت AI ندارند.

با این توضیحات طبیعتاً ارائه دادن تعریفی واحد از هوش مصنوعی، که مورد قبول همه‌ی دانشمندان این حوزه باشد، کار دشواری است. شاید بهترین کار برای آسان کردن درک معنی هوش مصنوعی این است که بحث را از کاربردها و شاخه‌های AI شروع کنیم.

هوش مصنوعی به زبان ساده

به‌هرحال، اگر دوست دارید در آغاز تعریفی، هر چند کلی، از هوش مصنوعی، هوشواره یا هوش ماشینی و هوش مصنوعی به زبان انگلیسی artificial intelligence (AI) ، smart mind یا fake mind داشته باشید، احتمالاً این تعریف بتواند تصویری کلی از این حوزه را برای‌تان بسازد: «هوش مصنوعی شاخه‌ای گسترده از علوم کامپیوتر است که ماشین‌های هوشمندی می‌سازد که از رفتارهای انسانی تقلید می‌کنند».

در واقع، این ماشین‌ها تصمیماتی می‌گیرند که معمولاً نیازمند سطحی از تجربه‌ی انسانی است. و به انسان‌ها کمک می‌کند تا مشکلات احتمالی را پیش‌بینی کند و بر آن‌ها فائق آید.

نقطه‌ی قوت خاص هوش انسان انطباق‌پذیری آن است. ما ظرفیت آن را داریم که با وضعیت‌های گوناگون محیطمان کنار بیابیم و رفتارمان را از با استفاده از یادگیری تغییر دهیم. تلاش برای دادن این ویژگی به ماشین‌ها منجر به شکل‌گیری شاخه‌ای به نام یادگیری ماشین در Ai شده است. به‌زعم بسیاری از متخصصان، این حوزه مهم‌ترین زیرشاخه‌ی AI است. البته خود یادگیری ماشین هم زیرشاخه‌هایی دارد که مهم‌ترینشان یادگیری عمیق است.

quote-Intelligent-Stephen-Hawking

«فیزیکدان و مدیر تحقیقات ریاضیات کاربردی میگوید: هوش‌ مصنوعی این توانایی را دارد که خود را خاموش و اقدام به بازطراحی قدرتمندتری از خود کند. اما در نقطه مقابل تکامل بیولوژیکی انسان‌ها قرار دارد که با سرعت کمی همراه است و نمی‌تواند با هوش‌ مصنوعی به رقابت بپردازد. اما مردم از این موضوع اطلاع ندارند. در حالی‌ که در کوتاه‌مدت تأثیر هوش‌ مصنوعی به کنترلی بستگی دارد که روی آن اعمال می‌شود. در درازمدت تأثیر آن به این موضوع بستگی دارد که آیا اصلاً قابل کنترل خواهد بود یا نه؟»

استیون هاوکینگ | Stephen Hawking

 

تصویر زیر درک بهتری از توضیحات پاراگراف قبلی به‌دست می‌دهد. یادگیری ماشین و یادگیری عمیق شباهت‌ها و تفاوت‌هایی با هم دارند. شباهت این دو بخش آنجایی است که هر دو از الگوریتم‌ها استفاده می‌کنند تا ماشین‌هایی با کارکردهای ویژه طراحی کنند که نیازی به دخالت عامل انسانی نداشته باشند. اما مهم‌ترین تفاوت یادگیری عمیق و یادگیری ماشین این است که در یادگیری عمیق الگوریتم‌ها لایه‌های بیشتری دارند و پیچیده‌ترند.

هوش مصنوعی

 

با بررسی سازوکارهای مغز می‌توانیم سر از کار سیستم‌های هوشمند دربیاوریم و آن‌ها را در کامپیوتر شبیه‌سازی کنیم. بنابراین، AI برنامه‌ای است که از هوش انسانی الهام گرفته است و روی ماشین‌ها پیاده‌سازی می‌شود. به این ترتیب ماشین می‌تواند همان کارهایی را که یک انسان انجام می‌دهد را در زمانی کوتاه‌تر و با دقتی بیشتر انجام دهد.

برنامه‌ها اغلب روی سیستم‌های کامپیوتری پیاده‌سازی می‌شوند و به‌واسطه‌ی این برنامه، کامپیوتر می‌تواند درمورد مسائلی که در اختیارش قرار می‌دهند تصمیم بگیرد، برنامه‌ریزی کند یا نتیجه را پیش‌بینی کند.

داستان شروع و تاریخچه هوش مصنوعی

ایده‌ی خلق موجودات هوشمندی که بتوانند کارهای انسان را انجام دهند، به اسطوره‌ها برمی‌گردد. انسان از وقتی که می‌توانسته خیال‌پردازی کند، همیشه به‌دنبال خلق کردن موجوداتی بوده که تحت فرمان او باشند و دستوراتش را اجرا کنند. البته که ساخت چنین موجودی به همین سادگی‌ها نیست و هنوز که هنوز است بشر موفق به ساخت آن نشده و فعلاً در حد همان خیال‌پردازی‌های فیلم‌های علمی – تخیلی مانده است.

نخستین گام‌ها در ساخت ماشین به جا انسان

robot

اولین تلاش انسان برای ساخت ماشینی که به‌جای انسان کار کند و تصمیم بگیرد، به حدود قرن ۱۷ بازمی‌گردد. چند قرن بعد، در دهه‌‎ی ۱۹۳۰ کورت گودل، آلونسو چرچ و آلن تورینگ بنیادهای اساسی منطق و نظریه‌ی علم کامپیوتر را بنا نهادند.

در جنگ جهانی دوم، تصمیم‌گیری و محاسبات سریع برای شکستن پیام‌های رمزی دشمن، به‌قدری مهم شد که آلن تورینگ (پدر هوش مصنوعی جهان) ساخت ماشین رمزشکن را آغاز کرد. داستان اختراع ماشین‌ها با قابلیت‌های مختلف، دست‌مایه‌ی ساخت فیلم‌های علمی – تخیلی زیادی شده است، همچنین که داستان ساخت اولین ماشین توسط آلن تورینگ، موضوع یکی از همین فیلم‌هاست.

آلن تورینگ آزمونی برای سنجش هوشمندی ماشین‌ها طراحی کرد که به آزمون تورینگ مشهور است. از نظر تورینگ هر ماشینی که بتواند از پس این آزمون بربیاید هوشمند است.

تاریخچه هوش مصنوعی در ایران

اختراع ماشین تورینگ در خلال جنگ جهانی دوم باعث شد تا سفری بدون انتها آغاز شود. مقصود توسعه روزافزون هوش مصنوعی، تفکر پیوسته بشر پیرامون آن و انباشت هر چه بیشتر دانش و تجربه آدمی در این باره است که «چگونه ماشین‌ها می‌توانند همچون آدمی بفهمند و عمل کنند؟». در واقع هسته مرکزی انگیزش تحقیق و توسعه در هوش مصنوعی همین پرسش است. این پرسش نیرویی در درون خود دارد و در دهه‌های گذشته سبب جنب‌وجوش عظیمی در دانشمندان و متخصصین علوم اعصاب و مهندسین کامپیوتر گردیده است.

بنابراین از تولد AI، زمان زیادی نمی‌گذرد. بر همین مبنا این رشته از اوایل دهه ۸۰ شمسی به کشورمان وارد شد. سپس در کشورمان متخصصین بسیاری به کاوش‌های نظری درباره آن پرداختند، به نحوی که بر اساس حجم تولیدات علمی که داشته‌ایم، به رتبه ۱۳ جهان در زمینه نظریه‌پردازی Artificial Intelligence دست یافتیم. در ایران زنده‌یاد، دکتر کارو لوکاس که در سال ۱۳۲۸ در اصفهان دیده به جهان گشود، پیش‌گام معرفی و توسعه رشته هوش‌مصنوعی و رباتیک در کشورمان بود. ایشان به جهت فعالیت‌های بسیار در رشته‌های مختلف علوم محض نظیر محاسبات، ریاضیات، احتمالات و علوم مهندسی نظیر رباتیک، موردتوجه محافل علمی جهان واقع شده بود. دکتر لوکاس از سال ۱۳۸۱ برای تدریس رشته رباتیک و AI، پس از سال‌ها فعالیت علمی در غرب، در دانشگاه تهران برنامه‌های علمی خود را آغازکرد.

اما اگرچه تولیدات علمی و نظری هوش ماشینی در کشورمان گذشته کوتاهی داشته و به‌واقع تاریخچه هوش مصنوعی در ایران عمر چندانی ندارد، اما بر اساس تولیدات و مستندات علمی عمیقی که از سوی دانشمندان علاقه‌مند ایرانی ایجاد شد، بدون تردید می‌توان آینده‎ای درخشان را برای این رشته از علم در ایران متصور بود.

سطوح سه گانه و انواع هوش مصنوعی

1. هوش ماشینی محدود یا ضعیف |weak Artificial Intelligence

به سیستم‌های هوش مصنوعی اشاره دارد که برای انجام دادن کاری خاص و محدود طراحی شده‌اند. این نوع از AI را می‌توانیم در برخی از  نرم‌افزاهایی که روزانه استفاده می‌کنیم ببینیم. مثلاً نرم‌افزاهای پیش‌بینی وضعیت آب‌وهوا یا نرم‌افزار بازی شطرنج. ضعیف بر مجموعه‌داده‌ای خاص و مشخص متکی است، به همین خاطر نمی‌توان از آن برای وظایف دیگری خارج از همان مجموعه‌داده استفاده کرد.

هوش مصنوعی ضعیف، برخلاف هوش مصنوعی قوی، با اینکه در نگاه اول پیچیده به نظر می‌رسد، خودآگاه نیست و در شرایطی از پیش‌ تعیین‌شده عمل می‌کند. همه‌ی ماشین‌های هوشمندی که امروز ما به نوعی از آن‌ها استفاده می‌کنیم در همین نوع AI قرار می‌گیرند Google Assistant ،Google Translate, Siri و دیگر ابزارهای متکی به پردازش زبان طبیعی مثال‌هایی از AI ضعیف‌اند. شاید به‌زعم بسیاری ابزارهایی که نام بردیم چندان هم «ضعیف» نباشند، اما دلیل «ضعیف» نامیدن این ابزارها این است که راه بسیاری دارند تا از هوشی شبیه به هوش انسانی برخوردار شوند. به عبارت دقیق‌تر، این ابزارها نمی‌توانند به‌صورت خودبسنده و مستقل بیندیشند.

بااین‌حال، هیچ‌یک از چیزهایی که گفتیم به معنای کم‌ارزش بودن فناوری Ai ضعیف نیست. این بخش از AI نمودی است از خلاقیت و هوش ما انسان‌ها.

2. هوش مصنوعی قوی | Strong Artificial Intelligence

برخلاف هوش مصنوعی ضعیف، این نوع از AI محدود به وظیفه‌ی خاصی نیست و از پس طیف وسیعی از کارها برمی‌آید. در واقع، هوش مصنوعی قوی به ماشین‌هایی اشاره دارد که نوعی از هوش انسانی را می‌توان در آن‌ها دید. به عبارت دیگر، AI قوی از پس هر کاری که انسان‌ها انجام می‌دهند برمی‌آید. نمونه‌های کامل از این ماشین‌ها را می‌توان در فیلم‌ها و رمان‌های علمی-تخیلی دید؛ آن‌جا که ربات‌ها بی‌هیچ نیازی به انسان کارهای خود را انجام می‌دهند. این ربات‌ها آگاهی دارند و احساسات را نیز درک می‌کنند.

3. فراهوش مصنوعی | Superintelligence

به ماشین‌های اشاره‌ دارد که از سطح هوش انسانی گذشته‌اند و دیگر محدودیت‌های هوش انسانی را ندارند. این گونه از AI، شاید همانی باشد که بسیاری را نگران آینده‌ی استفاده از این فناوری‌ها کرده است.

برخی از مفاهیم مربوط به حوزه‌های هوش مصنوعی

اگر به‌‎دنبال کلید‌واژه‌هایی برای جست‌وجوی بیشتر در حوزه‌ی AI می‌گردید می‌توانید از مفاهیم زیر استفاده کنید:

بینایی ماشین | Machine vision

Machine vision

فناوری است که می‌کوشد نوعی از بینایی را برای ماشین فراهم آورد. بینایی ماشین در فرایند‌های گوناگون صنعتی از تشخیص چهره، تحلیل ویدیو، ocr  و تشخیص اشیا تا تشخیص الگو استفاده می‌شود.

از این فناوری در خودروهای خودران نیز استفاده می‌شود. با اینکه شرکت‌های زیادی در تلاشند تا خودروهایی بسازند که نیازی به رانندگی انسان‌ها نداشته باشد، این حوزه بیشتر با نام شرکت تسلا و خودروهای آن گره خورده است.

علی‌رغم نوپا بودن هوش مصنوعی و بینایی ماشین در ایران، شرکت‌های فعال در حوزه‌ بینایی ماشین در ایران تعدادشان امیدوارکننده است و نویدبخش آینده‌ای روشن‌تر در این حوزه است.

پردازش گفتار | Speech processing

هوش مصنوعی چیست؟ تاریخچه، کاربرد و نحوه درآمدزایی از آن

برای اینکه با مباحث و فناوری‌های این حوزه در حد عناوین آشنا شوید بد نیست به چند مورد از فناوری‌های مهم این شاخه از AI اشاره کنیم: حوزه‌های پردازش گفتار مانند سیستم تشخیص گفتار، سنتز گفتار، شناسایی گوینده، چت بات، تحلیل معنایی متون، تحلیل احساسات، جست‌وجوگر معنایی.

سیستم‌های پردازش گفتار در کنار NLP این امکان را برای ماشین‌های هوشمندی، چون اسمارت‌فون‌ها، فراهم می‌کنند که از طریق زبان گفتاری با کاربران ارتباط برقرار کنند. احتمالاً معروف‌ترین تکنولوژی بازشناسی گفتار که اسمش را شنیده‌اید،Siri ، محصول اپل باشد.

Siri میکروفون‌هایی برای تشخیص صدا دارد و از بازشناسی گفتار خودکار برای تبدیل صدا به متن استفاده می‌کند. البته این دو مراحل ابتدایی هستند که در Siri انجام می‌شود و تا کامل شدن فرایند چند مرحله‌ی دیگر در این ابزار طی می‌شود. مانند بینایی ماشین، شرکت‌های فعال در حوزه پردازش گفتار در ایران نیز در حال پا گرفتن هستند و هر روز بر تعدادشان افزوده می‌شود.

داده‌کاوی | Data Mining

Data Mining

همان‌طور که از نامش نیز مشخص است به حوزه‌ی تحلیل داده‌ها،به‌ویژه داده‌های کلان، مربوط است. در واقع، در داده ‌کاوی تلاش می‌شود کار مربوط به استخراج الگو از داده‌ها را به ماشین‌ها سپرد. با همین توضیح کوتاه هم می‌شود دانست که داده‌کاوی چقدر می‌تواند مهم باشد، چرا که الگوهای استخراج شده از داده‌های کسب‌وکارها می‌تواند اطلاعات بسیاری مفیدی برای برنامه‌های آتی شرکت‌ها فراهم آورد.

این شاخه از AI، ترکیبی از ابزارهایی آماری و هوش مصنوعی با مدیریت مجموعه‌داده‌هاست. داده کاوی معمولاً در کسب‌وکار(بیمه، بانکداری و…)، پژوهش‌های علمی(نجوم و پزشکی) و مسائل مربوط به امنیت(تشخیص مجرمان و تروریست‌ها) کاربردهای گسترده‌ای دارد.

البته اهمیت یافتن مجموعه‌داده‌ها مسائل و مشکلاتی را نیز پدید آورده است. برای نمونه، حفظ اطلاعات شخصی کاربران در مجموعه‌داده‌های بزرگ بیش از گذشته پر رنگ‌تر شده و چالش‌هایی برای نگه‌داری از این داده‌ها پیش آمده است. به‌خاطر کاربردهای بسیار داده‌کاوی و نیازی که در این حوزه احساس می‌شود بر تعداد شرکت‌های داده کاوی در ایران روز‌به‌روز افزوده می‌شود.

پردازش زبان طبیعی | NLP

nlp

پردازش زبان طبیعی آموزش زبان انسانی  به ماشین‌هاست. این بخش از AI جایی است که زبان طبیعی و زبان‌های مصنوعی (مانند زبان‌های برنامه‌نویسی) با هم پیوند می‌خورند. تلاش‌ها برای پردازش زبان با کمک کامپیوترها به نسبت بسیاری از شاخه‌های هوش مصنوعی عمر طولانی‌تری دارد.

در پردازش زبان طبیعی نیاز به مجموعه‌داده‌های زبانی داریم تا بتوانیم پردازش را روی آن‌ها انجام دهیم. مفهوم پیکره زاده‌ی همین نیاز است. می‌توانید با جست‌وجوی این مفهوم چند پیکره‌ی مشهور انگلیسی را ببینید. اگر کنجکاوید بدانید که چگونه روی این پیکره‌ها پردازش انجام می‌شود باید سراغ مفاهیم تخصصی‌تر بروید. برای مثال در پایتون می‌توانید کتابخانه‌ی NLTK را فرابخوانید. این کتابخانه امکانات بسیار خوبی برای پردازش زبان طبیعی در اختیارتان می‌گذارد. شرکت‌های فعال در حوزه پردازش زبان طبیعی در ایران  می‌کوشند ابزارهای پردازش زبان طبیعی را بومی‌سازی و روی زبان فارسی پیاده کنند.

 

یادگیری ماشین | Machine Learning

یادگیری ماشین

یادگیری ماشین و مفاهیم مربوط به آن، از زیرشاخه‌های هوش مصنوعی هستند که به توانایی یادگیری ماشین‌ها مربوط می‌شود؛ درواقع ماشین‌ها قادرند به صورت خودکار به یادگیری و پیشرفت بپردازند بدون اینکه از قبل برای یادگیری آ‌ن‌ها برنامه‌نویسی صورت گرفته باشد. بنابراین ماشین‌ها در مکان‎های مختلف قادر به کار با داده‌ها هستند و می‌توانند با داده‌های دریافت شده به ارتقای یادگیری خود بپردازند؛ یادگیری ماشین یادگیری اتوماتیک کامپیوترهاست و هدف از آن، این است که کامپیوترها در اثر کار با داده‌ها به الگوهای جدیدی دست پیدا کنند و تصمیمات بهتری بگیرند. از یادگیری ماشینی اکنون در هر صنعت  و شغلی استفاده می‌شود.

یادگیری تقویتی | Reinforcement Learning

Reinforcement Learning

بهبود عملکرد ماشین‌ها با یادگیری تقویتی ممکن می‌شود؛ یادگیری تقویتی نوعی یادگیری ماشینی است که استفاده از هوش مصنوعی را در برنامه‌های پیچیده از بازی‌های ویدیویی تا روباتیک خود امکان‌پذیر می‌سازد. برخی از وظایف رانندگی خودمختار که در آن یادگیری تقویتی می‎تواند اعمال شود عبارتند از بهینه‌سازی مسیر، برنامه‌ریزی حرکت، مسیریابی پویا، بهینه‌سازی کنترل‌کننده و سیاست‌های یادگیری مبتنی بر اطلاع از وضعیت بزرگراه‌ها.

یادگیری‌ بانظارت، بی‌نظارت، نیمه‌نظارت

یادگیری‌ بانظارت، بی‌نظارت، نیمه‌نظارت

یادگیری ماشینی خود به چند دسته یادگیری با نظارت، بی‌نظارت، نیمه‌نظارت تقسیم شده است. هدف یادگیری بانظارت، می‌تواند با استفاده از آنچه که در گذشته آموخته و داده‌های جدید به نتایج نوینی برسد و مجموعه داده‌های آموزشی را آنالیز کند.

یادگیری نیمه‌نظارت از داده‌های برچسب‌ زده شده و برچسب‌ نزده برای آموزش، استفاده می‌کند؛ این نوع یادگیری می‌تواند دقت یادگیری را افزایش دهد. یادگیری بی‌نظارت به استفاده از الگوریتم‌های هوش مصنوعی برای شناسایی الگوهایی در مجموعه‌های داده، حاوی نقاط داده‌ای که نه طبقه‌بندی شده و نه برچسب‌گذاری شده‌اند، اشاره دارد. بنابراین الگوریتم‌ها اجازه دارند تا نقاط داده موجود در مجموعه‌های داده را طبقه‌بندی، برچسب‌گذاری و یا گروه‌بندی کنند، بدون اینکه هیچ راهنمایی خارجی در انجام آن کار داشته باشند. به عبارت دیگر، یادگیری بی‌نظارت به سیستم اجازه می‌دهد تا الگوهای درون مجموعه داده‌ها را به تنهایی شناسایی کند.

«شبکه عصبی» موجب شناخت الگوهای مغز انسان

شبکه عصبی

شناخت الگوهای مغز انسان با شبکه عصبی ممکن می‌شود؛ مغز انسان تمامی فرایندهای خودآگاه و ناخودآگاه در بدن انسان را کنترل می‌کند با این وجود دانشمندان ثابت کرده‌اند کامپیوترها با سرعتی بسیار بالاتر از مغز می‌توانند به فعالیت بپردازند. شبکه‌ عصبی رفتار مغز انسان را منعکس می‌کنند و به برنامه‌های رایانه‌ای اجازه می‌دهند الگوها را تشخیص دهند و مشکلات رایج در زمینه‌های هوش مصنوعی، یادگیری ماشینی و یادگیری عمیق را حل کنند. شبکه‌های عصبی که با نام‌های شبکه‌ عصبی مصنوعی (ANN) یا شبکه‌ عصبی شبیه‌سازی شده (SNN) نیز شناخته می‌شوند، زیرمجموعه‌ای از یادگیری ماشین هستند و در قلب الگوریتم‌های یادگیری عمیق قرار دارند. نام و ساختار آن‌ها از مغز انسان الهام گرفته شده است و از روشی که نورون‌های بیولوژیکی به یکدیگر سیگنال می‌دهند، تقلید می‌کند.

موتور استنتاج سیستم خبره

موتور استنتاج سیستم خبره

 موتور استنتاج سیستم خبره بخشی از سیستم است که قوانین منطقی را برای استنباط اطلاعات جدید در پایگاه دانش اعمال می کند. اولین موتورهای استنتاج، اجزای سیستم های خبره بودند. سیستم خبره معمولی شامل یک پایگاه دانش و یک موتور استنتاج بود. موتور استنتاج سیستم خبره برای حل مسائل پیچیده و ارائه توانایی تصمیم‌گیری مانند یک متخصص انسانی طراحی شده است و این کار را با استخراج اطلاعات و قوانین لازم از پایگاه دانش خود با استفاده از قواعد استدلال و استنتاج با توجه به پرسش‌های کاربر انجام می‌دهد.

 

 

الگوریتم ژنتیک در خدمت بهینه سازی ساختار نسل‌ها

الگوریتم ژنتیک

از الگوریتم ژنتیک در خدمت بهینه‌سازی ساختار نسل‌ها با اصلاح ژنتیک استفاده می‌شود؛ الگوریتم ژنتیک یک جستجوی اکتشافی است که از نظریه تکامل طبیعی چارلز داروین الهام گرفته شده است. این الگوریتم فرآیند انتخاب طبیعی را منعکس می‌کند که در آن بهترین افراد برای تولید مثل انتخاب می‌شوند تا فرزندان نسل بعدی به‌ وجود بیایند. الگوریتم ژنتیک در خدمت بهینه‌سازی ساختار نسل‌ها قرار گرفته تا فرایند تکامل طبیعی را شبیه‎سازی کند. فرایندهایی که بر اساس انجام عملیات روی کروموزوم‌ها شکل گرفته‌اند.

چهار دسته اصلی سیستم هوش مصنوعی

با چهار گروه اصلی سیستم هوش مصنوعی، مراحل تکامل این فناوری پیموده می‌شود؛ هوش مصنوعی (AI) به طور کلی به هر رفتاری شبیه انسان که توسط یک ماشین یا سیستم انجام می‌شود، اشاره دارد. در ابتدایی‌ترین شکل هوش مصنوعی، رایانه‌ها به گونه‌ای برنامه‌ریزی شده‌اند که با استفاده از داده‌های گسترده از نمونه رفتارهای مشابه، رفتار انسان را «تقلید» کنند. این رفتار می‌تواند از تشخیص تفاوت بین یک گربه و یک پرنده تا انجام فعالیت‌های پیچیده در یک مرکز تولیدی، متغیر باشد. با هوش مصنوعی، ماشین‌ها می‌توانند به طور مؤثر کار کنند و حجم وسیعی از داده‌ها را در یک چشم به هم زدن تجزیه و تحلیل کنند و مشکلات را از طریق یادگیری بانظارت، بی‌نظارت یا نیمه‌نظارت حل کنند.

۱ـ «ماشین‌های واکنشی»، ابتدایی ترین نوع هوش مصنوعی

چهار دسته اصلی سیستم هوش مصنوعی، هر یک بخشی از این فناوری را پیش می‌برند؛ ماشین واکنشی، ابتدایی‌ترین نوع هوش مصنوعی است که صرفاً به سناریوهای فعلی واکنش نشان می‌دهد و نمی‌تواند برای تصمیم‌گیری در زمان حال به داده‌های آموزش داده شده یا تکراری تکیه کند. ماشین‌های واکنشی نقشه‌ها و دیگر اشکال برنامه‌ریزی از پیش موجود را به طور کامل حذف می‌کنند و بر مشاهدات زنده از محیط تمرکز می‌کنند؛ وظایف خاصی به آن‌ها داده می‌شود و توانایی‌هایی فراتر از این وظایف ندارند.

به‌عنوان نمونه‌ای از این ماشین‌ها، می‌توان از برنامه شطرنجی نام برد که در دهه ۱۹۹۰ در مسابقه با گاری کاسپاروف، قهرمان شطرنج جهان پیروز شد. با این وجود این برنامه نمی‌تواند حافظه داشته باشد، حرکت‌های قبلی خود را به یاد بسپارد و از آن‌ها استفاده کند. ماشین‌های واکنشی ابتدایی‌ترین نوع هوش مصنوعی محسوب می‌شوند که برای هدف‌های محدودی قابل استفاده هستند و در موقعیت‌های مختلف نمی‌توانند پاسخگو باشند.

۲ـ «حافظه محدود» با قدرت تصمیم‌گیری

یکی از چهار دسته اصلی هوش مصنوعی، حافظه محدود است؛ حافظه محدود شامل مدل‌های یادگیری ماشینی است که دانش را از اطلاعات، حقایق، داده‌های ذخیره‌شده یا رویدادهای قبلاً آموخته‌شده استخراج می‌کند. بر خلاف ماشین‌های واکنشی، حافظه محدود می‌‌تواند با تجزیه و تحلیل اقدامات یا داده‌های مربوط به آن‌ها با هدف ایجاد دانش آزمایشی، از گذشته یاد بگیرد. این نوع هوش مصنوعی توسط دستیارهای صوتی ـ مجازی، روبات‌های گفتگو، ماشین‌های خودران و چندین فناوری دیگر استفاده می‌شود. به‌عنوان نمونه برخی از تصمیم‌گیری‌های ماشین‌های خودران، قدرت تصمیم‌گیری در حافظه محدود را نشان می‌دهند. مثلاً این ماشین‌ها می‌توانند خطی را که در آن مشغول رانندگی هستند، عوض کنند؛ البته اطلاعات در حافظه محدود برای همیشه ذخیره نمی‌شوند و این می‌تواند ضعف این سیستم محسوب شود.

۳ـ «نظریه ذهن» با توانایی سنجش افکار

نظریه ذهن نیز جزو چهار دسته اصلی هوش مصنوعی، محسوب می‌شود؛ نظریه ذهن با توانایی سنجش افکار میسر می‌شود؛ این نظریه شاخه‌ای از علوم شناختی است که به بررسی این موضوع می‌پردازد که چگونه حالات ذهنی را به افراد دیگر نسبت می‌دهیم و چگونه از حالات نسبت داده شده، برای توضیح و پیش‌بینی اعمال آن افراد دیگر استفاده می‌کنیم. به طور دقیق‌تر، این شاخه‌ای است که توانایی‌های ذهن‌خوانی را بررسی می‌کند. هم‌اکنون از این دسته از هوش مصنوعی، برای افکارسنجی در حوزه‌های سیاسی و اجتماعی بهره گرفته می‌شود. توانایی سنجش افکار با نظریه ذهن می‌تواند منجر به شناخت سلایق مخاطب در امور مختلف شود.

۴ـ «هوش مصنوعی خودآگاه» با توانایی شهود و همدلی

هوش مصنوعی خودآگاه با توانایی شهود و همدلی می‌تواند عالی‌ترین سطحی باشد که سیستم قادر است، به آن برسد؛ برای پیشرفت هوش مصنوعی به سمت کارهای پیچیده‌تر که نیاز به شهود و همدلی دارند، باید قابلیت‌هایی مانند فرااندیشه، خلاقیت و همدلی مشابه خودآگاهی یا آگاهی انسان در آن توسعه داده شود. چنین تغییر پارادایمی تنها از طریق یک تغییر اساسی در وضعیت هوش مصنوعی به سمت آگاهی امکان‌پذیر است، تغییری مشابه آنچه برای انسان‌ها از طریق فرآیند انتخاب طبیعی و تکامل رخ داده است. هوش مصنوعی خودآگاه می‌توانند بفهمد در چه سطحی قرار دهد و احساسات دیگران را نیز با توجه به اطلاعاتی که از آنها به دست می‌آورد درک می‌کند و قادر به همدلی خواهد بود.

کاربرد‌های هوش مصنوعی

با اینکه هوش‌مصنوعی تازه در ابتدای راه قرار دارد و چند دهه بیشتر نیست که نمودهایش در زندگی روزمره روبه‌گسترش گذاشته، اما همین حالا هم می‌توان در بخش‌های مختلف اقتصادی و علمی ردپایش را دید.

تصمیم‌گیری‌های AI بر اساس الگوریتم‌هایی است که قابلیت درک شرایط را دارند و مانند انسان توان استدلال و حل مسئله دارند. بنابراین هوش مصنوعی می‌تواند در زمینه‌ی دانش‌های متفاوتی مانند فلسفه، زبان‌شناسی، ریاضی، روان‌شناسی، عصب‌شناسی، تئوری کنترل، احتمالات، بهینه‌سازی و فیزیولوژی استفاده شود و کمک بزرگی به تصمیم‌گیری‌های انسان باشد.

AI با استفاده از الگوریتم‌ها، پردازش‌هایی روی اطلاعات و داده‌های موجود انجام می‌دهد تا بر اساس نتایج آن تصمیمات لازم برای بهبود کار را بگیرد.

حجم و تنوع زیاد داده‌های موجود در کنار هزینه‌ی پایین محاسبات و ذخیره‌سازی داده‌ها باعث شده مدل‌هایی ساخته شوند تا از روی این داده‌ها، اطلاعات مفید استخراج شود. سیستم‌های سنتی نرم‌افزاری این قابلیت را ندارند، در عوض هوش مصنوعی همان چیزی است که می‌تواند با استخراج داده‌های مفید از بین داده‌های موجود، چراغ روشنی در دل داده‌های تاریک باشد.

یکی از پیشرفت‌های ویژه‌ای که کسب‌و‌کارها می‌توانند داشته باشند، استفاده از Artificial Intelligence است که موجب تمایز و به‌دنبال آن افزایش کارآمدی و سودآوری آن‌ها می‌شود. در همین راستا شرکت‌های فعال در حوزه‌ی AI، خدماتی ارائه می‌دهند که باعث بهبود عملکرد کسب‌وکارها می‌شود. زمینه‌های زیادی برای استفاده از هوش ماشینی وجود دارد. به‌عنوان مثال AI توان ارائه‌ی خدمات در حوزه‌های زیر را دارد:

کشاورزی

Artificial intelligence in agriculture

کشاورزی از قدیمی‌ترین شغل‌ها در جهان امروز است. هزاران سال قبل، ابداع کشاورزی و کشت روشمند محصولات زراعی باعث انقلابی در زیست انسان‌ها شد که به انقلاب کشاورزی معروف است. از زمانی که انسان هوشمند، یکجانشینی را بر کوچ ترجیح دادند و کشاورزی را آغاز کردند تا به امروز کشاورزی تغییرات بسیاری را از سر گذرانده و فناوری‌های بسیاری وارد این حوزه شده‌اند. آخرین نسخه از فناوری‌های جدید که به پشتوانه‌ی هوش مصنوعی ممکن شده است کم‌کم راهش را به کشاورزی باز می‌کند.

هوش مصنوعی را بسیاری جدیدترین انقلاب در زندگی بشر می‌دانند. اکنون، مدتی است که استفاده از هوش مصنوعی در کشاورزی آغاز شده است. روش‌های سنتی کشاورزی مشکلاتی دارند که می‌توان با کمک AI آن‌ها را رفع کرد. برای مثال، می‌توان با استفاده از نرم‌افزارهای هوش مصنوعی گزارش‌هایی از وضعیت آب‌وهوا یا شرایط خاک به دست آورد و بر اساس آن برنامه‌ریزی کرد. کشاورزان اکنون می‌توانند با استفاده از AI زمان مناسب کشت و برداشت را تخمین بزنند، میزان آب مناسب برای هر محصول و زمان مناسب آبیاری را بدانند.

پزشکی

Artificial intelligence in health

یکی از قدیمی‌ترین کاربردهای هوش‌مصنوعی کاربردهای پزشکی آن است. تلاش‌های اولیه برای آوردن هوش مصنوعی به این حوزه شاید اندکی ناامیدکننده بود. نخستین فناوری بر پایه‌ی AI در این حوزه، MYCIN بود که در دهه‌ی ۱۹۷۰ در دانشگاه پرینستون برای تشخیص عفونت‌هایی استفاده شد که از طریق خون منتقل می‌شوند. این فناوری و فناوری‌های مشابه در این دوره، با اینکه بسیار نویدبخش بودند، اما هیچ‌گاه از سطح نمونه‌های آزمایشگاهی فراتر نرفتند. در واقع هم این سیستم‌های اولیه چندان برتری در ابزارهای تشخیصی که خود پزشکان انجام می‌دادند نداشت.

پس از مدتی کم‌کم شرایط تغییر کرد. تا جایی که کمتر روزی است که خبری در حوزه‌ی هوش مصنوعی در پزشکی منتشر نشود. البته هنوز بسیار از این فناوری‌های جدید مرحله‌ی آزمایشی خود را می‌گذرانند. اما شاید برای درک بهتر کاربردهای عملیاتی‌تر AI در پزشکی بد نباشد اشاره‌ای به یکی از همین کاربردها داشته باشیم: استفاده از هوش مصنوعی برای تشخیص بهترین شیوه‌ی زایمان. در این فناوری، AI با سنجش وضعیت زنان باردار می‌تواند پیشنهاد دهد که از بین روش طبیعی زایمان و سزارین کدام روش مناسب‌تر است.

بازارهای مالی و بانکداری

Artificial intelligence in financial markets

گفتیم که یکی از امکان‌هایی که هوش مصنوعی در اختیار ما قرار می‌دهد توان پیش‌بینی است. امروز دیگر بحث‌ تحلیل بازارهای مالی از طریق هوش مصنوعی صرفاً یک ایده نیست. الگوریتم‌هایی که برای تحلیل بازار آموزش دیده‌اند می‌توانند لحظه‌به‌لحظه بازارهای مالی را رصد کنند و با اطلاعاتی که جمع‌آوری می‌کنند تصویر واضح و دقیق از وضعیت هر سهم در بازار ارائه ‌دهند. حتی می‌توانید معامله کردن را نیز به بات‌هایی بسپارید که برای این کار طراحی شده‌اند.

صنعت بانکداری نیز از قافله‌ی استفاده از AI جا نمانده است. هوش مصنوعی در بانکداری جای پای‌اش را باز کرده است. استفاده از چت‌بات‌ها مدت‌هاست که در بانکداری رواج یافته است. چت‌بات امکانی است که از طریق آن کاربر شما می‌تواند با نرم‌افزاری که در آن از هوش ماشینی استفاده شده گفت‌وگو کند. یکی از امکان‌های جالبی که این چت‌بات‌های به‌ظاهر ساده فراهم آورده‌اند این است که خدمات‌دهندگان در هر ساعتی از شبانه‌روز در دسترس مشتریان خود هستند. همان‌طور که گفتیم این تنها بخش کوچکی از نقش هوش مصنوعی در بانکداری است.

حوزه‌ی آموزش

Artificial intelligence in learn

بخش آموزش از حوزه‌‌هایی است که هوش‌مصنوعی هنوز در آن جای پیشرفت‌های بسیاری دارد. مخصوصاً این روزها که همه‌گیری کرونا دانش‌آموزان و معلمان را خانه‌نشین کرده جای خالی فناوری‌های آموزشی بر پایه‌ی AI بیش از پیش احساس می‌شود.

یکی از مهم‌ترین امکان‌هایی که هوش مصنوعی در آموزش می‌تواند فراهم آورد شخصی‌سازی آموزش با توجه به نیازهای منحصربه‌فرد هر کدام از دانش‌آموزان است. از نقاط ضعف سیستم آموزشی امروز این است که برای همه‌ی دانش‌آموزان محتوای درسی یکسانی تدارک می‌بیند و به تفاوت‌های فردی دانش‌آموزان توجهی ندارد. طبیعی است سرعت یادگیری و علائق دانش‌آموزان در هر کدام از شاخه‌های درسی یکسان نباشد. حال تصور کنید سیستمی داشته باشیم که با دادن سابقه‌ی تحصیلی دانش‌آموز به آن برنامه‌ی درسی مناسب برای دانش‌آموز را در اختیارتان قرار دهد. در واقع، این یکی از ساده‌ترین کارهایی است که می‌توان از ماشین‌هایی برپایه‌ی هوش مصنوعی (AI) انتظار داشت.

می‌توان چند قدم جلوتر رفت. مثلاً می‌توان سیستم را طوری طراحی کرد که با توجه به برنامه‌ی شخصی دانش‌آموز محتوای درسی مناسب او را نیز در اختیارش قرار دهد و ارزشیابی دانش‌آموز را نیز خودش بر عهده بگیرد. در واقع، ما در اینجا با معلم هوشمندی طرف هستیم که همیشه برای دانش‌آموز وقت دارد و نیازهای هر دانش‌آموز را در نظر می‌گیرد.

بنابراین اگر بخواهیم، با توجه به گفته‌های پیشین، درباره‌ی کاربردهای AI در بخش‌های مختلف سخت‌گیرانه صحبت کنیم، باید بگوییم تنها تکنولوژی‌هایی را می‌توان کاملاً در حوزه‌ی هوش‌مصنوعی قرار داد که خودشان بتوانند بدون دخالت عامل انسانی چیز جدیدی را فرابگیرند.

در این مورد شاید فناوری DeepMind گوگل مثال خوبی باشد. این فناوری را در AI در مقوله‌ی شبکه‌های عصبی جای می‌دهند. DeepMind قادر است بدون تکیه بر الگوریتم‌های رفتاری از پیش تعریف شده تصمیم‌گیری کند. به‌خاطر کم بودن تکنولوژی‌هایی مثل این محصول گوگل، می‌توان گفت که هوش‌مصنوعی هنوز کودکی‌ نوپاست که راه بسیاری در پیش دارد. برخی از متخصصان تکنولوژی‌های امروزیِ بر پایه‌ی هوش مصنوعی را فناوری‌های شبه‌هوش مصنوعی(pseudo AI) می‌نامند تا بر نوپا بودن آن تاکید کنند.

حمل‌و‌نقل

ai in transportation

از نخستین انگیزهایی که هوش مصنوعی را وارد عرصه‌ی حمل‌ونقل کرد مشکلات بی‌شمار این حوزه بود. یکی از مشکلات اساسی این حوزه آسیب‌های جانی و مالی فراوانی است که هر ساله به بسیاری وارد می‌شود.

کافی است به آمار تلفات جاده‌ای در همین کشور خودمان نگاهی بیندازید تا میزان حاد بودن این مشکل پی ببرید. ماشین‌های هوشمند که توان تحلیل قدرتمندی دارند می‌توانند در حل این مشکل به کمک انسان بیایند.

مثال دیگری از مشکلات این حوزه مسئله‌ی ترافیک است. ‌وورد AI به مدیریت ترافیک می‌تواند همان حلقه‌ی گمشده‌ی این معضل باشد. چرا که سیستم‌های هوش مصنوعی به‌سرعت می‌توانند خود را با وضعیت‌های جدید سازگار کنند و عملکرد خود را بهبود ببخشند.

صنعت سرگرمی و سینما

ai and entertainment

یکی از فناوری‌های متکی به AI که تقریباً هر روز از آن استفاده می‌کنیم و برای‌مان عادی شده است، سیستم‌های پیشنهاددهنده است. زمانی که در یوتیوب ویدئویی نگاه می‌کنید، گوگل ویدئوهایی دیگری را نیز به شما پیشنهاد می‌دهد که شاید موردپسندتان باشد. همین فناوری به‌ظاهر ساده می‌تواند با توصیه‌هایش  کسانی را که به‌صورت اتفاقی وارد سایتتان شده‌اند در سایت نگه دارد.

از ابزارهای مفید دیگری که  AI می‌تواند برای این بخش فراهم آورد،خلاصه‌سازی اخبار و گزارش‌ها برای انتشار است. خلاصه‌سازی بیش از همه بحثی است که در پردازش زبان‌ طبیعی بررسی می‌شود.

محیط‌ زیست و انرژی

environment & AI

ساده‌ترین کاربرد هوش مصنوعی در این حوزه می‌تواند استفاده از AI در مدیریت نیروگاه‌ها و پالایشگاه‌ها باشد. با استفاده از هوش مصنوعی می‌توان الگوهایی برای مدیریت این مراکز داشت که خطای بسیاری کمتری داشته باشند.

یکی از جالب‌ترین کاربردهای هوش مصنوعی در حوزه‌ی محیط‌زیست، استفاده از آن برای محافظت از گونه‌های در خطر انقراض است. در یکی از این موارد، از فناوری تشخیص چهره برای حفظ گونه‌ای از میمون‌ها استفاده شده است. ردگیری گونه‌های در خطر انقراض با ابزارهای فیزیکی دشوار و هزینه‌بر است.

نرم افزارهای هوش مصنوعی تصویر گونه‌ها را با اطلاعات منحصربه‌فرد هر مورد ذخیره می‌کنند. هر تصویر جدیدی که وارد این نرم‌افزار می‌شود، به‌صورت هوشمند تحلیل می‌شود و شما می‌توانید بدانید آیا این مورد قبل از این در جای دیگری دیده شده است و مشخصات منحصربه‌فردش چیست.

جدیدترین نمونه‌های هوش مصنوعی در جهان  که صنایع را متحول کرده‌اند

هوش مصنوعی (AI) با کاربردهای باورنکردنی خود در سراسر جهان موجی از تغییرات اساسی ایجاد کرده و آخرین نمونه‌های این فناوری نیز از این قاعده مستثنی نیستند. از چت‌بات‌ها گرفته تا ابزارهای خلاقانه دیگر، هوش مصنوعی نحوه تعامل ما با فناوری را تغییر داده است. بیایید نگاهی بیندازیم به برخی از آخرین و جدیدترین نمونه‌های هوش مصنوعی در جهان که تا مدت‌ها تیتر یک اخبار را به خود اختصاص داده‌ بودند:

 

چت جی پی تی

ChatGPT، از جدیدترین نمونه‌های هوش مصنوعی مکالمه‌ای که جهان را مبهوت خود ساخته

ChatGPT یک سیستم هوش مصنوعی مکالمه‌ای پیشرفته است که از الگوریتم یادگیری عمیق برای درک و ایجاد پاسخ‌های زبانی انسان مانند استفاده می‌کند. این مدل زبانی از خانواده GPT (Generative Pre-trained Transformer) است و آخرین نسخه آن، GPT-3.5، به‌منظور درک و پاسخگویی به طیف گسترده‌ای از موضوعات، بر روی حجم عظیمی از داده‌ها آموزش دیده است. این موضوع ChatGPT را به یکی از پیشرفته‌ترین مدل‌های زبانی در  سراسر جهان تبدیل کرده. این چت‌بات‌ را می‌توان برای طیف گسترده‌ای از برنامه‌ها، از جمله خدمات مشتریان، ترجمه زبان و حتی نوشتن خلاق استفاده کرد.

DALL-E

دال ای، بهترین مبدل برای ایجاد تصاویر خیره‌کننده و بی‌نظیر

دال ای یک تولید‌کننده تصویر مبتنی بر هوش مصنوعی است که توسط OpenAI همان شرکت سازنده ChatGPT توسعه یافته. این مبدل می‌تواند تصاویر واقعی را براساس توضیحات متنی ایجاد نماید، به این معنی که شما یک شیء یا صحنه را توصیف می‌کنید و دال ای یک تصویر واقعی از آن برایتان ایجاد می‌نماید. تصاویر تولید شده توسط دال ای واقعا باورنکردنی هستند و پتانسیل هوش مصنوعی را در زمینه هنرهای خلاق به نمایش می‌گذارند. این برنامه یکی از جدیدترین نمونه‌های هوش مصنوعی در جهان است که کاربردهای بی‌شماری در صنایعی مانند طراحی محصول و تبلیغات دارد.

LaMDA

لامدا، نسل بعدی ابزارهای هوش مصنوعی برای توسعه‌دهندگان

لامدا یک پلت‌فرم محاسباتی قدرتمند است که توسط خدمات وب آمازون (AWS) توسعه یافته و طیف وسیعی از ابزارهای یادگیری ماشین و هوش مصنوعی را ارائه می‌دهد. این محصول طراحی شده تا ساخت و استقرار برنامه‌های هوش مصنوعی را برای توسعه‌دهندگان آسان‌تر سازد و توسط تعدادی از شرکت‌ها برای ایجاد راه‌حل‌های پیشرفته هوش مصنوعی استفاده گردیده است.

 

Bard

بارد، زمینه‌ساز انقلابی در زمینه نویسندگی خلاق

بارد یک مدل زبان هوش مصنوعی است که توسط گوگل توسعه یافته و می‌تواند شعر و نثر را با کیفیت بالا در سبک‌ها و قالب‌های مختلف تولید نماید. این مجموعه بر روی پایگاه داده‌ای عظیمی از ادبیات آموزش دیده که آن را قادر می‌سازد تا نوشتاری در سبک‌‌ها و ژانرهای مختلف ایجاد نماید. بارد توسط شاعران و نویسندگان سراسر جهان برای خلق آثار جدید استفاده شده و به دلیل توانایی آن در تقلید از سبک و لحن نویسندگان مورد تحسین قرار گرفته و این پتانسیل را دارد که انقلابی در زمینه نویسندگی خلاق ایجاد نماید.

اینها تنها تعدادی از آخرین و جدیدترین نمونه‌های هوش مصنوعی در جهان هستند که زندگی ما را متحول ساخته‌اند. از مدل‌های زبانی گرفته تا ابزارهای خلاقانه دیگر، هوش مصنوعی طرز فکر ما را درباره فناوری و پتانسیل آن تغییر داده است.

کاوش در کاربردهای تخصصی هوش مصنوعی

هوش مصنوعی (AI) در حال تغییر نحوه عملکرد صنایع و مشاغل است و فناوری‌های مبتنی بر هوش مصنوعی درها را به روی دنیایی از امکانات باز می‌کنند. در میان بسیاری از کاربردهای تخصصی هوش مصنوعی، قابلیت‌های تشخیص چهره، تشخیص اشیا و سایر عملکردهای تخصصی این فناوری توجه روزافزونی را به خود جلب کرده‌اند. این عملکردهای هوش مصنوعی راه خود را به صنایع مختلف، از مراقبت‌های بهداشتی گرفته تا خرده‌فروشی باز کرده و نحوه انجام کارها را تغییر داده‌اند.

فناوری تشخیص چهره، از مهیج‌ترین کاربردهای هوش مصنوعی برای متحول کردن زندگی ما

یکی از برجسته‌ترین و مهیج‌ترین کاربردهای هوش مصنوعی، تشخیص چهره است. تشخیص چهره یک فناوری قدرتمند است که به ماشین‌ها اجازه می‌دهد تا چهره‌های انسانی را تجزیه‌و‌تحلیل و شناسایی کرده و این امر اهمیت فزاینده‌ای برای اهداف امنیتی و احراز هویت دارد. این کاربرد هوش مصنوعی می‌تواند در موارد بسیاری از اجرای قانون گرفته تا باز کردن قفل دستگاه‌های شخصی مورد استفاده قرار گیرد.

علاوه‌بر‌این، تشخیص چهره برای تحقیقات بازاریابی نیز استفاده می‌شود. فروشگاه‌های خرده‌فروشی می‌توانند از تشخیص چهره برای ردیابی اطلاعات جمعیتی مشتریان خود مانند سن، جنسیت و حتی خلق و خوی آنها استفاده کنند. سپس می‌توانند از این اطلاعات به دست آمده برای تنظیم کمپین‌های بازاریابی و کمک به فروشگاه‌ها در بهینه‌سازی مکان‌های محصول و چیدمان فروشگاه استفاده نمایند.

تشخیص اشیا، از تاثیرگذارترین کاربردهای هوش مصنوعی در خرده فروشی‌ها

یکی دیگر از کاربردهای تخصصی هوش مصنوعی که در‌حال کسب محبوبیت روز افزونفزونافزو است، فناوری تشخیص اشیا است. تشخیص شیء توانایی یک ماشین برای شناسایی یک شی خاص در یک تصویر یا ویدئو است. این فناوری کاربردهای متعددی دارد و از خودروهای خودران گرفته تا اتوماسیون خانگی می‌توان از آن بهره برد. در خرده‌فروشی، تشخیص اشیا می‌تواند برای شناسایی و ردیابی اقلام موجود در قفسه‌های فروشگاه استفاده شود و کسب‌وکارها را قادر می‌سازد تا سطح موجودی محصول خود را بهتر مدیریت کنند.

در مراقبت‌های بهداشتی، از قابلیت‌های تشخیص اشیاء مبتنی بر هوش مصنوعی برای تشخیص بیماری‌ها و ناهنجاری‌ها استفاده می‌شود. محققان در‌حال توسعه ابزارهای جدید هوش مصنوعی هستند که می‌توانند شرایط پزشکی مختلف را براساس تصاویر پزشکی مانند اشعه ایکس و اسکن MRI شناسایی و طبقه‌بندی کنند. این به پزشکان کمک می‌کند تا تشخیص‌های سریع‌تر و دقیق‌تری داشته باشند و درمان بهتری را به بیماران خود ارائه دهند.

تشخیص گفتار و پردازش زبان طبیعی، از ضروری‌ترین کاربردهای هوش مصنوعی در جهان امروز

سایر عملکردهای تخصصی هوش مصنوعی شامل تشخیص گفتار و پردازش زبان طبیعی است. این برنامه‌ها نحوه تعامل مردم با فناوری را از دستیارهای صوتی گرفته تا چت‌بات‌ها تغییر می‌دهند. در آینده، انتظار می‌رود که هوش مصنوعی حتی تخصصی‌تر شود و برنامه‌های کاربردی جدید و نوآورانه همواره در حال توسعه باشند.

با وجود کاربردهای فراوان هوش مصنوعی، هنوز نگرانی‌هایی در مورد سوء استفاده احتمالی از این فناوری وجود دارد. برخی می‌ترسند که تشخیص چهره و سایر کاربردهای تخصصی هوش مصنوعی منجر به نقض حریم خصوصی و آزادی‌های مدنی افراد گردد. بنابراین، بسیار مهم است که توسعه و استفاده از هوش مصنوعی به دقت تنظیم و نظارت شود، تا از استفاده اخلاقی و مسئولانه آن اطمینان حاصل گردد.

در نتیجه می‌توان اینگونه گفت که، کاربردهای هوش مصنوعی بسیار گسترده و متنوع است و می‌تواند با عملکردهای تخصصی مانند تشخیص چهره، تشخیص اشیا و پردازش زبان طبیعی، صنایع و مشاغل را متحول نماید.

اپیدمی از دست دادن شغل با هوش مصنوعی تا سال ۲۰۳۰

هوش مصنوعی به‌سرعت در‌حال دگرگونی صنایع در سراسر جهان است.  در‌حالی‌که این فناوری مزایا و فرصت‌های زیادی برای رشد در‌اختیار کسب‌و‌کارها قرار می‌دهد، اما بسیاری آن را تهدیدی قابل‌توجه برای اشتغال می‌دانند. برخلاف تصور این عده که ظهور فناوری‌های هوش مصنوعی و اتوماسیون را علت اصلی از دست رفتن مشاغل در بخش‌های مختلف از جمله تولید، خدمات مشتری، حمل‌ونقل و حتی مشاغل یقه‌سفید مانند حسابداری و حقوق عنوان می‌کنند، اما در‌واقع این تکنولوژی آمده تا فرایندهای کاری را ساده‌سازی کرده و کارایی را در صنایع مختلف افزایش دهد.

همانطور که سیستم‌های هوش مصنوعی پیشرفته‌تر می‌شوند، قادر به انجام وظایفی هستند که زمانی تنها مسئولیت انسان‌ها بوده. اما این به معنای حذف نیروی انسانی از فرایندهای کاری نیست، بلکه هدف برداشتن سختی کار از دوش این نیروها و قرارگیری انسان و فناوری در کنار هم است. به‌عنوان‌مثال، چت‌بات‌ها و دستیاران مجازی می‌توانند درخواست‌های مشتری و پشتیبانی را انجام دهند، در‌حالی‌که ربات‌ها می‌توانند محصولات را مونتاژ و تولید کنند. با وجود این توضیح، ادغام فناوری در مشاغل باز هم منجر به ایجاد نگرانی‌هایی در مورد امنیت شغلی و تأثیر آن بر جامعه گردیده و این هجمه را ایجاد کرده که در سال‌های پیش رو از دست دادن شغل با هوش مصنوعی، تهدیدی جدی برای میلیون‌ها نیروی کار فعال در سراسر جهان خواهد بود.

از دست دادن شغل با هوش مصنوعی، تهدیدی برای میلیون‌ها نیروی کار در سراسر جهان

براساس مطالعه‌ای که توسط موسسه جهانی مک کینزی انجام شده، اتوماسیون می‌تواند تا سال ۲۰۳۰ جایگزین ۳۷۵ میلیون شغل در سراسر جهان شود. تنها در ایالات‌متحده، تخمین زده می‌شود که حدود ۴۷٪ از تمامی مشاغل در معرض خطر خودکار شدن قرار گیرند. البته مشاغل جدیدی جایگزینی مشاغل از دست رفته به‌دلیل اتوماسیون خواهند شد، اما مقیاس و سرعت جابه‌جایی شغل می‌تواند قابل‌توجه باشد.

تأثیر هوش مصنوعی بر اشتغال در‌حال‌حاضر در چندین بخش مشهود است. به‌عنوان‌مثال، استفاده از وس

ایل‌نقلیه خودران می‌تواند منجر به از دست دادن میلیون‌ها شغل در صنعت حمل‌و‌نقل و ایجاد مشاغل جدید گردد. ماشین‌های خودکار و ربات‌ها نیز جایگزین کارگران انسانی در کارخانه‌های تولیدی می‌شوند که این امر منجر به از دست دادن شغل با هوش مصنوعی و جایگزینی مشاغل جدید در این بخش می‌گردد.

صنعت خرده‌فروشی نیز تحت‌تأثیر هوش مصنوعی قرار گرفته است، زیرا افزایش خرید آنلاین و سیستم‌های پرداخت خودکار نیاز به نیروی انسانی را کاهش داده است. در بخش مالی، سیستم‌های مبتنی بر هوش مصنوعی در حال جایگزینی مشاغل در زمینه‌هایی مانند حسابداری و تحلیل مالی هستند.

در واقع هوش مصنوعی جایگاه شغلی افراد را اشغال نمی‌کند، بلکه متخصصانی که از این فناوری در فرایند کاری خود استفاده می‌کنند، جایگزین نیروهای غیر‌متخصص خواهند شد.

تهدید هوش

از تهدیدها تا فرصت‌ها: هوش مصنوعی چگونه می‌تواند باعث ایجاد شغل و رونق اقتصادی گردد؟

در‌حالی‌که تأثیر هوش مصنوعی بر اشتغال قابل‌توجه است، اما نمی‌توان تمامی این تاثیر را منفی دانست. هوش مصنوعی همچنین فرصت‌های شغلی جدیدی ایجاد کرده است، به‌ویژه در زمینه‌های مرتبط با توسعه و نگهداری سیستم‌های مرتبط با این فناوری. به‌عنوان‌مثال، به‌واسطه این تکنولوژی تقاضای فزاینده‌ای برای دانشمندان داده، مهندسان یادگیری ماشین و متخصصان اخلاق هوش مصنوعی به وجود آمده است. با این حال، نمی‌توان این امر را هم نادیده گرفت که این مشاغل به مهارت‌ها و آموزش‌های تخصصی نیاز دارند و براین اساس نیروهای کار باید برای ارتقا توانمندی‌های خود در دنیای جدید که فناوری حرف اول در آن را می‌زند تلاش داشته باشند. دولت‌ها و کسب‌و‌کارها باید اقداماتی را برای رسیدگی به تاثیر هوش مصنوعی بر اشتغال انجام دهند. این می‌تواند شامل سرمایه‌گذاری در برنامه‌های آموزشی به‌منظور کمک به کارگران، برای کسب مهارت‌های مورد‌نیاز در مشاغلی با موضوع هوش مصنوعی باشد. همچنین می‌تواند شامل بررسی مدل‌های اقتصادی جدید، برای حمایت از کسانی باشد که به دلیل اتوماسیون از کار بیکار شده‌اند.

در‌نتیجه، در‌حالی‌که هوش مصنوعی مزایای متعددی را برای جامعه به ارمغان می‌آورد، همچنین می‌تواند تهدیدی قابل‌توجه برای مشاغل نیز به شمار رود. دولت‌ها و کسب‌وکارها باید با یکدیگر همکاری کنند تا به معظل از دست دادن شغل با هوش مصنوعی رسیدگی نموده و آینده‌ای را ایجاد کنند که در آن انسان‌ها و ماشین‌ها بتوانند در کنار هم زندگی نمایند.

آشنایی با ربات‌های مطرح هوش مصنوعی در جهان

هوش مصنوعی در چند سال گذشته با سرعتی باورنکردنی در‌حال پیشرفت بوده و اخبار مرتبط با ربات‌هایی که از این فناوری استفاده می‌کنند در زندگی روزمره ما بسیار به گوش می‌رسد. در اینجا چند نمونه از ربات‌های مطرح هوش مصنوعی در جهان آورده شده است:

sophia

سوفیا، رباتی با هوش هیجانی که در جهان طوفان به پا کرده

سوفیا یک ربات انسان نمای اجتماعی است که توسط شرکت Hanson Robotics در هنگ کنگ ساخته شده. این ربات قادر به پردازش داده‌های بصری، تشخیص چهره و همچنین گفتگو با انسان است و از هوش مصنوعی برای درک و پاسخ به احساسات و سوالات انسانی استفاده می‌کند. سوفیا در محافل عمومی متعددی حضور داشته و حتی تابعیت عربستان سعودی را نیز دریافت کرده است. این ربات در مصاحبه با رسانه‌های خبری مانند CNN و بی بی سی به نمایش گذاشته شده است.

هوش مصنوعی چیست؟ تاریخچه، کاربرد و نحوه درآمدزایی از آن

پیپر، بهترین دوست انسان با توانایی خاص در برقراری تعامل طبیعی

پیپر یک ربات انسان نما است که برای تعامل با انسان به روشی طبیعی طراحی گردیده است. این ربات که توسط Softbank Robotics ساخته شده در اصل برای کار در محیط‌های خرده‌فروشی طراحی گردیده و قادر به تشخیص احساسات، درک گفتار و پاسخ مناسب به آنها است. این ربات در محیط‌های مختلفی از هتل‌ها گرفته تا بیمارستان‌ها استفاده گردیده است.

Aibo

 اسپات، ربات چهارپای همه کاره که تحولی در کاربردهای صنعتی و تجاری ایجاد کرده

اسپات یک ربات چهار پا است که به‌عنوان یکی از ربات‌های مطرح هوش مصنوعی در جهان شناخته شده و برای کاربردهای صنعتی و تجاری توسط تیم Boston Dynamics طراحی گردیده است. اسپات که مجهز به سنسورها، دوربین‌ها و فناوری‌های پیشرفته است، می‌تواند در سطوح مختلف و محیط‌های پیچیده حرکت کند و طیف وسیعی از وظایف مانند بازرسی سایت‌های ساخت‌و‌ساز یا عملیات جستجو و نجات را انجام دهد.

Baxter

 

سگ ربات سونی؛ آیبو گامی به سوی حیوانات خانگی رباتیک

آیبو یک سگ رباتیک است که توسط شرکت سونی ساخته شده. آیبو که به فناوری هوش مصنوعی مجهز گردیده، می‌تواند یاد بگیرد و خود را با محیط اطراف سازگار سازد و همچنین صدا و حرکات صاحبان خود را تشخیص داده و به آنها پاسخ دهد. آیبو به خاطر حرکات واقع‌گرایانه و ویژگی‌های بیانی‌اش مورد توجه بسیاری قرار گرفته است.

Astro

باکستر، ربات پیشرفته‌ای که پا‌به‌پای انسان‌ کار می‌کند

باکستر رباتی است که توسط Rethink Robotics ساخته شده است. باکستر که برای کار در کنار انسان در حوزه تولید و سایر صنایع طراحی شده، قادر به انجام وظایف مختلفی از کار در خط مونتاژ گرفته تا بسته‌بندی و حمل‌و‌نقل است. این ربات به‌دلیل رابط کاربر‌پسند و انعطاف‌پذیری خود شناخته‌شده است.

spot

آسترو، یک ربات پیشرفته همراه برای جهشی عظیم به دنیای فردا

آسترو که توسط سونی توسعه یافته، یک ربات همراه است که برای کمک به بهبود کیفیت زندگی انسان‌ها طراحی گردیده است. با کمک فناوری‌های پیشرفته هوش مصنوعی، آسترو می‌تواند احساسات انسان‌ها را تشخیص داده و به آن پاسخ دهد. این ربات همچنین می‌تواند از محیط خود بی‌آموزد و حتی با دستگاه‌های دیگر ارتباط برقرار کند.

اینها تنها چند نمونه از ربات‌های مطرح هوش مصنوعی در جهان هستند که هرکدام قابلیت‌ها و کاربردهای منحصر به فرد خود را دارند. همانطور که فناوری هوش مصنوعی به تکامل خود ادامه می‌دهد، می‌توان انتظار داشت که در سال‌های آینده شاهد ربات‌های پیشرفته‌تر و پیچیده‌تری نیز باشیم.

توانایی‌ها و قابلیت‌های هوش مصنوعی

با مروری که درباره کاربردهای هوش مصنوعی در کشورمان داشتیم، دشوار نیست که حدس بزنیم آینده شگفت‌انگیزی در انتظار صنایع گوناگون است. همچنان که هر روز شاهد اخباری جدید و جالب درباره چگونگی کاربرد هوش مصنوعی در زندگی هستیم، در آینده نزدیک همه چیز بیش از امروز و آنچه که هست به هوش مصنوعی گره می‌خورد. این یعنی روندهای بیشتری از زندگی‌مان به کمک هوش مصنوعی، هوشمندسازی خواهد شد. در ادامه برخی از قابلیت‌های هوش مصنوعی که در آینده به منصه ظهور می‌رسند را مرور می‌کنیم.

توسعه اتومبیل‌های خودران(TESLA)

پیشرانه توسعه تکنولوژی جهان در زمینه خودروهای خودران، شرکت تسلا است. این شرکت اخیراً اعلام کرده است که می‌خواهد به طور کامل با از فناوری راداری مستقل شده و از قوی‌ترین پردازشگرهای هوش مصنوعی در شاخه بینایی ماشین برای حالت Autopilot خودروی تسلا استفاده کند. این قابلیت یکی از منحصربه‌فردترین توانمندی‌های هوش مصنوعی در حال حاضر جهان به‌حساب می‌آید.

تحول در متدهای برنامه‌نویسی

در حال حاضر ایده‌‌ها و طرح‌هایی از سوی متخصصین هوش مصنوعی ارائه می‌شود مبنی بر اینکه روندهای برنامه‌نویسی به کمک هوش مصنوعی و با حذف نیروی انسانی انجام شود. در حال حاضر نیز، برنامه‌نویسان و طراحان وب‌سایت‌ها می‌کوشند تا Sketch ها را به کمک Artificial Intelligence به کدهای Html تبدیل کنند که این خود نشان از آغاز هوشمندسازی روندهای برنامه‌نویسی در آینده نزدیک دارد.

آهنگ‌سازی، شعرسرایی و نمایشنامه‌نویسی

اخیراً دانشمندان دانشگاه MIT آمریکا به همراه بتهوون شناسان مشهور، توانسته‌اند به کمک هوش مصنوعی فقرات مفقود شده سمفونی‌های این آهنگ‌ساز مشهور آلمانی را ترمیم کنند. این کار از طریق یادگیری شیوه آهنگ‌سازی توسط هوش مصنوعی و بازخوانی سمفونی‌های دیگر بتهوون صورت‌گرفته است. بسیار خب، می‌توان دریافت که در آینده می‌توانیم شاهد نگارش نمایشنامه‌هایی قوی‌تر از شکسپیر، آهنگ‌هایی عمیق‌تر از موتسارت، انگاره‌های فلسفی ژرف‌تر از هگل باشیم که هرکدام در جای خود زلزله‌ای فکری در جهان به راه انداختند. در واقع، می‌توان این قابلیت را از هوش مصنوعی انتظار داشت که بتواند به فرهنگ و هنر تمدن‌های انسانی خدمت قابل‌توجهی بکند و محصولات فرهنگی عمیقی را ارائه دهد.

تولید خودکار بازی‌های رایانه‌ای

بازی‌های رایانه‌ای جزو پرسودترین صنایع جهان هستند. به طور مثال تصور کنید بازی‌های مشهوری نظیر God of War 3 که برای کنسول‌های نسل پنج ارائه شده است و طراحی و تولید آن چند سال به طول انجامیده، نسخه چهارم آن به کمک هوش مصنوعی در یک شبانه‌روز نوشته شود. این موضوع بدون تردید مایه شگفتی خواهد بود. این موضوع نمی‌تواند منجر به تعطیلی شرکت‌های تولیدکننده بازی‌های کامپیوتری شود، بلکه موضوع رقابت بین شرکت‌های تولیدکننده را تغییر می‌دهد. به بیان دیگر موضوع از تولید بازی، به تولید سناریوهای قدرتمند بازی و عمیق‌تر شدن و معناگرا شدن تغییر خواهد کرد و این به لطف هوش مصنوعی در آینده رقم می‌خورد.

ترمیم تصاویر و نوشته‌ها باستانی

هوش مصنوعی این قابلیت را دارد تا به کمک فناوری یادگیری عمیق، فقره‌های مفقود شده یک متن باستانی را تکمیل کند و یا یک نقاشی یا مجسمه یا شهری که در گذر زمان، تخریب شده است را بازطراحی نماید. با این کار می‌توانیم به کمک هوش مصنوعی پلی به آن‌سوی تاریخ بزنیم و گذشته گذشتگانمان را عمیق‌تر از قبل بشناسیم. به طور مثال، می‌توانیم تصور کنیم که در آینده منشور حقوق بشر کوروش هخامنشی به کمک هوش مصنوعی تکمیل شود و فقره‌های مفقود شده آن کشف گردد.

وضعیت کنونی هوش مصنوعی در جهان

در سال ۲۰۲۰، هوش مصنوعی از حاشیه به متن فناوری آمد. هر روز که می‌گذرد کسب‌وکارهای بزرگ توجهشان به این حوزه بیشتر جلب می‌شود و سرمایه‌های بیشتری به این بازار سرازیر می‌شود. سریال The Social Dilemma که از نت‌فلیکس پخش شد بحث‌های داغی درباره‌ی ابعاد پیدا و پنهان AI برانگیخت.

همین بحث‌ها بسیاری از شرکت‌ها و فعالان این حوزه را برانگیخت که به سراغ تنظیم دستورالعمل‌های اخلاقی فعالیت در این حوزه بروند. کوتاه اینکه همین افزایش حساسیت‌‎ها نسبت به هوش مصنوعی نشان‌دهنده‌ی این است که در سطح جهان بسیاری متوجه اهمیت و ضرورت آن شده‌اند می‌کوشند تا این حوزه را در کنترل خود بگیرند.

Artificial intelligence employment index
شاخص استخدامی هوش مصنوعی به تفکیک کشورها

وضعیت بازار کار هوش مصنوعی در ایران

کافی است نگاهی به فهرست ارزشمند‌ترین و بزرگ‌ترین شرکت‌های جهان یا بزرگ‌ترین شرکت هوش مصنوعی ایران بیندازید. از گوگل و اپل گرفته تا فیس‌بوک و آمازون همگی شرکت‌های فناوری به حساب می‌آیند. تصور این شرکت‌ها بدون متخصصان و فناوری‌های AI تقریباً محال است.

بازار کار رشته‌ی هوش مصنوعی روز‌به‌روز گسترش پیدا می‌کند. طبیعتاً هر چقدر کاربردهای AI در رشته‌های علمی دیگر و زندگی روزمره بیشتر شود بازار کار آن نیز بزرگ‌تر خواهد شد. از نظر آکادمیک، رشته‌ی machine intelligence یکی از پرطرفدارترین شاخه‌های رشته‌ی کامپیوتر در ایران است. در ایران بیشتر شرکت‌های خصوصی در این حوزه سرمایه‌گذاری می‌کنند و متخصصان هوش‌مصنوعی را به کار می‌گیرند.

در ایران، در سال ۱۳۹۸ دانشگاه‌های بوعلی سینا همدان، اصفهان، تبریز، زنجان، شهید بهشتی، سمنان، شیراز، صنعتی اصفهان، صنعتی امیرکبیر، صنعتی شریف، علم و صنعت، خواجه‌نصیر، فردوسی مشهد، یزد، شهید باهنر کرمان، تهران، صنعتی شاهرود و غیر انتفاعی علوم شناختی به جذب دانشجوی دکتری پرداختند.

تعداد دانشجویان دکتری جذب‌شده در این سال ۱۱۸ نفر در دوره‌های مختلف بوده است. متاسفانه یکی از خلاهای اطلاعاتی در این بخش میزان جذب نخبگان هوش مصنوعی در بازار کار ایران است.

رتبه‌ ایران در هوش مصنوعی

بر اساس اعلام بخش تحقیق و توسعه موسسه آینده‌پژوهی دانس و فناوری سینا، ایران هشتمین کشور برتر دنیا از لحاظ مقالات پر استناد است و تنها کشوری در خاورمیانه است که در بین ۱۰ کشور برتر دارای بیشترین  مقالات پر استناد جای گرفته است. با این آمارها طبیعتاً نباید تعجب کنید که شرکت‌های چند حوزه‌ای هوش مصنوعی بسیاری در ایران فعال‌اند. هر کدام از این شرکت‌ها در بخش‌های مختلف اقتصادی و صنعتی که پیش از این گفتیم محصولات بومی جالب و مهمی دارند.

Top countries in artificial intelligence
ده کشور برتر جهان از نظر تعداد مقالات هوش مصنوعی

درآمد متخصصان هوش مصنوعی

درآمد متخصصان هوش مصنوعی بر اساس میزان مهارتشان تفاوت‌های اساسی با هم دارد. در ایران، مثل درآمد بیشتر شغل‌ها، نمی‌توان از میانگین دریافتی متخصصان machine intelligence عدد دقیقی به دست آورد. اما با بررسی درآمد متخصصان هوش مصنوعی در کشورهای دیگر می‌توان تصویری از دریافتی‌ها در این حوزه داشت.

برآوردها نشان می‌دهد در آمریکا حداقل درآمد متخصصان AI چهل‌ونه هزار دلار است. اما این عدد درآمد سالانه‌ی تنها بیست‌وپنج درصد از متخصصان هوش مصنوعی است. متوسط درآمد سالانه‌ی هفتاد‌وپنج درصد از شاغلان این حوزه چیزی در حدود صدوپنجاه هزار دلار است. البته مانند هر حوزه‌ی دیگری متخصصان برتر AI درآمدی بسیار بیشتر از این اعداد دارند. بنابر گزارشی که در کتاب بوم‌شناسی هوش مصنوعی شرکت پارت آمده است در تابستان سال ۱۳۹۹ حدود ۱۰۰ شرکت در حوزه‌ی machine intelligence در ایران فعالند. این شرکت‌ها در ۵ حوزه‌ی داده‌کاوی، بینایی ماشین، پردازش گفتار، پردازش زبان طبیعی و شرکت‌های چندحوزه‌ای هوش‌مصنوعی مشغول به فعالیت هستند.

چالش‌های پیش‌روی هوش مصنوعی در ایران

در بخش مشاغل هوش ماشینی ایران در چند سال اخیر، با توسعه‌ی ICT و اپلیکیشن‌های موبایل، اینترنت و… مشاغلی مانند تاکسی‌های اینترنتی، فروش‌های اینترنتی، بازی‌ها و…. بازار غیر سخت‌افزاری پیدا کرده و به تبع آن‌ هوش مصنوعی در این بخش‌‌ها پیشرفت‌های خوبی داشته است.

در توسعه‌ی استفاده از AI و مسائل مرتبط با آن، مسئله‌ی مهم ایجاد زیست‌بومی است که در آن شرکت‌های به‌وجود بیایند و منافع آینده‌شان را در این حوزه درک کنند. از جمله چالش‌های اصلی در این بخش این است که متاسفانه ایران جایگاه مناسبی در بحث آماده بودن برای جذب هوش مصنوعی را ندارد و آمادگی لازم در این خصوص دیده نمی‌شود.

بر اساس آمار ارائه‌شده از سوی معاون وزیر ارتباطات، ایران در آمادگی جذب هوش مصنوعی  رتبه‌ی ۷۲ را در دنیا دارا بوده که بر اساس رتبه‌های ما در بخش‌های دیگر machine intelligence همچون تولید علم، رتبه‌ی خوبی نیست. متاسفانه در ایران داده‌ها شامل نوعی محرمانگی می‌شوند. یکی از راهکارهای توسعه در این حوزه، در اختیار گذاشتن داده برای عموم است. با این کار است که محققان می‌توانند روی داده‌های موجود کار کنند.

بخش مهمی از فعالیت‌های ماکس بیزرمن در مرز مشترک مذاکره و تصمیم گیری متمرکز است و معمولاً می‌کوشد این دو حوزه را در ارتباط با یکدیگر بررسی کند. شناخته‌شده‌ترین کتاب او یعنی Judgment and Managerial Decision Making (قضاوت در تصمیم گیری های مدیریتی) از این ویژگی مستثنی نیست. کتابی که در ایران با عنوان مدیران و چالش های تصمیم گیری به فارسی ترجمه و منتشر شده است.

ماکس بیزرمن نخستین ویرایش کتاب مدیران و چالش های تصمیم گیری را در سال ۱۹۸۷ با هدف معرفی بیشتر ایده‌های دنیل کانمن و آموس تورسکی نوشت و اکنون ویرایش هشتم آن، به عنوان یک مرجع معتبر، هم در آموزش مذاکره و هم تصمیم گیری مورد استناد و استفاده قرار می‌گیرد.

باز هم سیستم یک و دو

برای شما که در متمم با روایت دنیل کانمن از تصمیم گیری آشنا هستید، احتمالاً چندان عجیب نخواهد بود که فصل اول کتاب بیزرمن با بحث سیستم یک و دو در تصمیم گیری آغاز می‌شود.

بیزرمن هم معتقد است این نوع مدل‌سازی تصمیم‌ها، می‌تواند برای شناسایی و تحلیل بهتر تصمیم‌های مدیریتی مفید و کارآمد باشد.

او بلافاصله پس از کانمن، به سراغ هربرت سایمون می‌رود و بحث تصمیم گیری با عقلانیت محدود (Bounded Rationality)  را مطرح می‌کند تا خواننده، برای مطالعه‌ی سایر بخش‌های کتاب، آمادگی ذهنی کافی را پیدا کند.

خطاهای شناختی در تصمیم گیری

از فصل دوم تا هفتم کتاب، به بحث خطاهای شناختی در تصمیم گیری اختصاص پیدا کرده است.

میان‌برهای ذهنی، انواع سوگیری، اعتماد به نفس بیش از حد، تمرکز بر آخرین اطلاعات، چارچوب‌های ذهنی، حسابداری ذهنی و فرو رفتن در دام تصمیم‌های قبلی و افزایش غیرمنطقی تعهدات، از جمله مباحثی هستند که در این فصل‌ها مطرح شده‌اند.

بی‌تردید می‌توان گفت این کتاب بیزرمن در کنار کتاب تفکر کند و سریع، تمام مدتی که رولف دوبلی مشغول نوشتن هنر شفاف اندیشیدن بوده، روی میز کار او قرار داشته است.

انصاف و اخلاق در تصمیم گیری

فصل هشتم کتاب مدیران و چالش های تصمیم گیری، به انصاف و اخلاق اختصاص یافته است؛ بحثی که می‌توان آن را امضای بیزرمن در کتاب‌هایش دانست.

نباید انتظار داشته باشید مطالبی که در حد فصلی از یک کتاب هستند، همه‌ی جنبه‌های اخلاق کسب و کار را پوشش دهند. اما بیزرمن کوشیده است پیچیدگی و اهمیت اخلاق و انصاف در تصمیم گیری را به خوانندگانش گوشزد کند.

البته این فصل، تنها فصلی نیست که در آن به بحث اخلاق پرداخته شده و بیزرمن از هر فرصت دیگری هم، برای اشاره به بحث اخلاق در تصمیم گیری استفاده می‌کند. به عنوان مثال، او فصل ششم از کتابش را نیز با روایتی از چالشِ ریل و قطار (که در انتهای فایل صوتی تصمیم گیری مطرح شده) آغاز کرده است.

تصمیم گیری در سرمایه گذاری و مذاکره

بیزرمن فصل‌های ۹ و ۱۰ و ۱۱ کتاب خود را به زوایای مختلفِ بحث تصمیم گیری در سرمایه گذاری و مذاکره اختصاص داده و موضوعات بسیار متنوعی را در این حوزه مطرح کرده است.

مطالعه‌ و بررسی این سه فصل برای کسانی که به حوزه‌ی مذاکره علاقه دارند، بسیار مفید خواهد بود (البته باید بگوییم که بحث‌های بیزرمن درباره‌ی تصمیم‌های سرمایه‌گذاری، در مقایسه با کتاب‌هایی که اختصاصاً به بحث مالی رفتاری پرداخته‌اند، بسیار ساده و ابتدایی است).

بیزرمن همچنین فصل پایانی کتابش را به ابزارهای بهبود کیفیت تصمیم گیری اختصاص داده است (اگر چه در تمام کتاب، نکات فراوانی مطرح شده و احتمالاً انتخاب این عنوان برای فصل آخر، با توجه به محتوای نسبتاً ساده‌ی آن، صرفاً برای شکیل‌تر شدنِ چارچوب کتاب بوده است).

خلاصه کتاب تفکر سیستمی مدوز

کتاب تفکر سیستمی یا اگر دقیق‌تر بگوییم «مقدمه‌ای بر تفکر سیستمی (به خاطر کلمهٔ Primer روی جلد)» تقریباً همهٔ موضوعات پایه در تفکر سیستمی را پوشش داده است. موضوعاتی که بیشتر آن‌ها در درس‌های تفکر سیستمی متمم مطرح شده‌اند. بنابراین در این‌جا به شرح مفصل مباحث کتاب نمی‌پردازیم و صرفاً به صورت فهرست‌وار موضوعات مطرح شده در آن را مرور می‌کنیم.

همان‌طور که می‌دانید، مباحث تفکر سیستمی در قلمروهای بسیار متنوعی قابل طرح هستند. یعنی با همان اصولی که می‌توانید فروش یک محصول را تحلیل کنید، می‌توانید اکوسیستم یک مرداب یا وضعیت یک جامعه را هم درک و پیش‌بینی کنید. مدوز هم با طرح مثال‌های متنوع نشان داده که بلد است از این ظرفیت بزرگ به خوبی استفاده کند. امروز تقریباً همه پذیرفته‌اند که تفکر سیستمی ابزاری حیاتی برای نگاه به بسیاری از چالش‌های زیست‌محیطی، سیاسی، اجتماعی، و اقتصادی در سراسر جهان است. سیستم‌ها، بزرگ یا کوچک، به شیوهٔ مشابهی رفتار می‌کنند و شناختن این شیوه‌ها مهم‌ترین امید ما به ایجاد تغییرات ماندگار در همهٔ سطوح است.

اگر در یک شرکت (یا شرکت خودتان) کار می‌کنید و درگیر این موضوع هستید که سازمان و کسب‌و‌کار شما چگونه می‌تواند در ساختن جهانی بهتر نقش ایفا کند، اگر سیاست‌گذاری هستید که می‌بینید دیگران در برابر ایده‌های خوب و نیت‌های خیر شما مقاومت می‌کنند، اگر مدیری هستید که برای حل مشکلات شرکت و مجموعهٔ خود می‌کوشید و هر بار می‌بینید مشکلات تازه‌ای از جای دیگری سر بر می‌آورند، […] اگر می‌خواهید بدانید چرا دستاوردهای حاصل از پیشرفت جامعه‌تان طی سال‌های طولانی به سادگی با چند عکس‌العمل سریع از دست می‌رود، و نیز در جایگاه شهروندی که می‌خواهد در جامعه‌ای که به سرعت در حال جهانی شدن است، تأثیری مثبت و ماندگار ایجاد کند،  این کتاب می‌تواند به شما کمک کند.

مسئله‌ی مستقل و مجزا وجود ندارد

مدوز بحث تفکر سیستمی را با این موضوع شروع می‌کند که بسیاری از مسائلی که ما در کسب‌و‌کارها، جوامع و سایر سیستم‌ها می‌شناسیم، مستقل و مجزا نیستند. شما نمی‌توانید یک مسئله را جدا کنید و بگویید من فقط می‌خواهم این را حل کنم و هیچ کاری به مسائل دیگری که با آن گره خورده ندارم. به عنوان مثال می‌گوید: «ویروس سرماخوردگی به شما حمله نمی‌کند. این شما هستید که شرایطی فراهم می‌کنید که ویروس بتواند درون شما رشد کند.» و در جای دیگر هم می‌گوید که «چه از نظر روانشناسی و چه از نظر سیاسی، ما‌ ترجیح می‌دهیم ریشهٔ مشکلات را در آنجا جستجو کنیم و نه اینجا.» به عبارت دیگر، ترجیح می‌دهیم انگشت را به سمت دشمن بیرونی نشانه بگیریم تا ضعف درونی.

خِرد ما با تفکر سیستمی ناآشنا نیست

مدوز نکتهٔ مهم دیگری را هم بارها در کتاب خود به شکل‌های مختلف مطرح می‌کند.

او معتقد است که نباید ریاضیات پیچیده و معادلات دینامیک سیستم این برداشت را در ما ایجاد کند که مباحث سیستمی بسیار جدید هستند و بشر پیش از این به آن‌ها توجه نکرده است. اتفاقاً بسیاری از موضوعاتی که خرد عمومی ما آن را درک می‌کند و می‌پذیرد، پایهٔ سیستمی دارند.