طراحی یک مدل برای سازمان اطلاعاتی یک کار پیچیده و چالش برانگیز است که مستلزم بررسی دقیق عوامل مختلف از جمله اهداف، محدوده، ساختار، عملکردها، منابع و فرهنگ سازمان است. در این مقاله، برخی از جنبهها و اصول کلیدی که باید فرآیند طراحی را هدایت کنند، و همچنین برخی از دامهای رایج و بهترین شیوههایی که میتوانند به دستیابی به یک نتیجه موفق کمک کنند، مورد بحث قرار خواهیم داد.
یکی از اولین گام ها در طراحی مدل سازمان اطلاعاتی، تعریف هدف و اهداف سازمان است. نیازهای اطلاعاتی و اولویت های اصلی ذینفعان چیست؟ خروجی ها و نتایج مورد انتظار فعالیت های اطلاعاتی چیست؟ سازمان چگونه عملکرد و تأثیر خود را اندازه گیری خواهد کرد؟ این سؤالات می تواند به ایجاد چشم انداز و مأموریت روشن برای سازمان و همچنین مجموعه ای از ارزش ها و اصول اصلی که فرهنگ و هویت آن را شکل می دهد کمک کند.
گام مهم دیگر تعیین محدوده و حدود سازمان است. انواع و منابع اطلاعاتی که سازمان جمع آوری، تجزیه و تحلیل و منتشر خواهد کرد چیست؟ حوزه ها و مناطقی که سازمان تحت پوشش قرار خواهد داد چیست؟ محدودیت های قانونی و اخلاقی که سازمان به آن پایبند خواهد بود چیست؟ این سوالات می تواند به تعریف محدوده اختیارات و مسئولیت سازمان و همچنین ارتباط آن با سایر سازمان های اطلاعاتی و شرکای خارجی کمک کند.
گام بعدی طراحی ساختار و وظایف سازمان است. سازمان چگونه در داخل و خارج سازماندهی خواهد شد؟ نقش و مسئولیت هر واحد و فرد چیست؟ اطلاعات در داخل و بین واحدها چگونه جریان می یابد؟ چگونه هماهنگی و همکاری بین واحدها و سطوح مختلف تسهیل خواهد شد؟ این سوالات می تواند به ایجاد یک نمودار سازمانی واضح و منسجم کمک کند که منعکس کننده تقسیم کار، سلسله مراتب، ارتباطات و مکانیسم های کنترل سازمان باشد.
گام چهارم تخصیص منابع و توانمندی های سازمان است. منابع انسانی، مالی، فنی و فیزیکی که سازمان به آنها نیاز دارد و خواهد داشت چیست؟ چگونه این منابع بین واحدها و عملکردهای مختلف توزیع و مدیریت خواهند شد؟ چگونه این منابع در طول زمان به دست می آیند، نگهداری می شوند و توسعه می یابند؟ این سوالات می تواند به اطمینان حاصل شود که سازمان منابع و قابلیت های کافی و مناسب برای انجام وظایف خود را به طور موثر و کارآمد دارد.
مرحله آخر پیاده سازی و ارزیابی مدل برای سازمان اطلاعاتی است. این سازمان چگونه راه اندازی و عملیاتی خواهد شد؟ چالش ها و خطراتی که سازمان ممکن است در طول اجرای آن با آن مواجه شود چیست؟ سازمان چگونه بر پیشرفت و عملکرد خود نظارت خواهد کرد؟ سازمان چگونه از موفقیت ها و شکست های خود درس خواهد گرفت؟ چگونه سازمان با شرایط و نیازهای متغیر سازگار خواهد شد؟ این سوالات می تواند به اطمینان حاصل شود که سازمان قادر به اجرای استراتژی و دستیابی به اهداف خود و همچنین بهبود مستمر فرآیندها و نتایج است.
طراحی یک مدل برای سازمان اطلاعاتی یک فرآیند یکباره یا خطی نیست، بلکه یک فرآیند تکراری و پویا است که مستلزم بازخورد، تأمل و تعدیل دائمی است. با پیروی از این مراحل و اصول، می توان مدلی را برای سازمان اطلاعاتی طراحی کرد که متناسب با هدف، مؤثر، کارآمد، پاسخگو، شفاف، اخلاقی و سازگار باشد.
https://dr-baradaran.ir/wp-content/uploads/2023/09/1.jpg6001000ادمینhttps://dr-baradaran.ir/wp-content/uploads/2023/09/یادگیری-سرآغاز-آگاهیست-300x92.pngادمین2023-09-14 07:38:072023-09-14 07:38:07طراحی یک مدل برای سازمان های مبتنی بر اطلاعات
مایکروسافت نسخه جدیدی از برنامه پینت (Paint) را در بیلدهای اینسایدر ویندوز 11 منتشر کرده است که با قابلیت جدید آن میتوان پسزمینه تصاویر را تنها با یک دکمه حذف کرد. این نسخه جدید درحالحاضر در کانالهای Dev و Canary منتشر شده است.
طبق گزارش Bleeping Computer، پس از نصب این نسخه جدید، دکمهای تحت عنوان «حذف پسزمینه» (Remove Background) در بخش Image نوار ابزار برنامه پینت اضافه خواهد شد که میتواند سوژه را از تصویر جدا و سپس پسزمینه اطراف آن را حذف کند.
حذف آسان پسزمینه تصاویر در نرمافزار Paint
در ویدیوی کوتاه زیر میتوانید نحوه جداسازی پسزمینه تصویر توسط این ابزار را مشاهده کنید:
همچنین میتوانید با انتخاب بخشی از تصویر موردنظر خود، پسزمینه آن قسمت را حذف کنید. BleepingComputer توضیح میدهد که در آزمایشهای خود با قابلیت جدید مایکروسافت پینت، این ویژگی عملکرد بسیار خوبی در جداسازی سوژه اصلی عکس و حذف کل پسزمینه آن داشته است.
هرچند درحالحاضر برنامههای ویرایش عکس بسیار زیادی وجود دارند که دارای ویژگی مشابهی برای حذف پسزمینه تصاویر هستند، اما وجود آن در پینت برای افرادی که میخواهند این کار را با سرعت زیاد و بدون نیاز به نصب برنامههای پیشرفتهتر انجام دهند، مفید خواهد بود.
همچنین برخلاف برنامههای دیگری که وجود دارد، استفاده از پینت راحتتر و کاملاً رایگان است. به عنوان مثال، Canva قابلیت حذف پسزمینه را بهعنوان یک ویژگی پولی به کاربران خود ارائه کرده است و برای انجام این کار با Adobe Express باید یک حساب کاربری ایجاد کنید.
ویژگی جدید حذف پسزمینه پینت در نسخه 11.2306.30.0 یا نسخههای جدیدتر این برنامه وجود دارد و اگر هنوز در دسترس شما قرار نگرفته است، احتمالاً باید مدتزمان بیشتری را منتظر بمانید. اخیراً در گزارش دیگری گفته شد که مایکروسافت قصد دارد Paint را به قابلیتهای هوش مصنوعی برای ساخت تصویر با توضیحات متنی مجهز کند.
https://dr-baradaran.ir/wp-content/uploads/2023/09/microsoft-paint.jpg168300ادمینhttps://dr-baradaran.ir/wp-content/uploads/2023/09/یادگیری-سرآغاز-آگاهیست-300x92.pngادمین2023-09-11 10:22:332023-09-11 10:22:33بکارگیری هوش مصنوعی در paint ویندوز توسط شرکت مایکروسافت
متا با مایکروسافت همکاری کرده است تا هوش مصنوعی Liama 2 را بهعنوان نسل بعدی مدلهای زبانی برای امور تجاری و تحقیقاتی عرضه کند. این مدل بهصورت متنباز از طریق مایکروسافت آژور، AWS، هاگینگ فیس و دیگر سرویسدهندگان هوش مصنوعی عرضه خواهد شد.
مایکروسافت در رویداد Inspire از محصولات جدیدی مثل بینگ چت Enterprise پرده برداشت. متا هم در این رویداد حاضر شد و اعلام کرد با همکاری غول فناوری ردموند، مدل هوش مصنوعی جدید Liama 2 را بهصورت متنباز عرضه میکند. همانطور که در وبسایت مایکروسافت آمده است، این مدل روی آژور و ویندوز پشتیبانی خواهد شد.
علاوهبراین، متا با کوالکام همکاری خواهد داشت تا Llama 2 را از طریق پلتفرم اسنپدراگون از سال 2024 به گوشیها، لپتاپها و هدستها بیاورد. با این کار، برای استفاده از قابلیتهای هوش مصنوعی در اپهای مختلف دیگر نیازی به اتکا به سرویسهای ابری نخواهد بود.
متا میگوید Llama 2 را متنباز کرده است تا ایمنی این مدل هوش مصنوعی را ارتقا دهد. این شرکت معتقد است که با این کار، توسعهدهندگان و محققان میتوانند این مدل زبانی بزرگ را آزمایش کنند و مشکلات آن را بیابند.
متا میگوید Llama 2 فرایند آزمایش از طریق تیمهای قرمز را هم پشتسر گذاشته است. در این آزمایشها از تیمهایی در داخل و خارج از شرکت برای اجرای آزمایشهای تهاجمی علیه یک محصول استفاده میشود.
هوش مصنوعی Liama 2 چه فرقی با Liama دارد؟
Llama 2 در دو نسخه عرضه میشود: Liama 2 و Liama 2-Chat. نسخه دوم برای گفتوگوهای دوطرفه بهینهسازی شده است. دو نسخه نسل دوم این هوش مصنوعی همچنین از نظر تعداد پارامترها به سه ویرایش با 7، 13 و 70 میلیارد پارامتر تقسیم میشوند.
Llama 2 روی 2 تریلیون توکن آموزش داده شده است. هر توکن یکتکه متن مثل یک واژه است. این مقدار در مقایسه با 1.4 تریلیون توکن Llama افزایش قابلتوجهی داشته. البته در میان رقبا مدلهایی مثل PaLM 2 گوگل وجود دارند که روی 3.6 تریلیون توکن آموزش داده شدهاند.
متا اعلام نکرده است که منبع اطلاعاتی آنها برای آموزش Llama 2 دقیقاً چه چیزهایی بوده و صرفاً میگوید اطلاعات خود را از سطح وب بهدست آورده است. این مدل هوش مصنوعی در بنچمارکها اندکی ضعیفتر از مدلهایی مثل GPT-4 و PaLM 2 عمل میکند. اما متا میگوید مدل آنها در ارزشیابیهای انسانی تقریباً بهخوبی ChatGPT ظاهر شده است.
https://dr-baradaran.ir/wp-content/uploads/2023/09/Liama2.webp9001200ادمینhttps://dr-baradaran.ir/wp-content/uploads/2023/09/یادگیری-سرآغاز-آگاهیست-300x92.pngادمین2023-09-11 10:13:392023-09-11 10:23:58همکاری متا و مایکروسافت در جهت ساخت هوش مصنوعی Liama 2
پیشرفت چشمگیر ابزارهای مبتنی بر AI در طی ماههای اخیر، موجب شده است تا شاهد ظهور سرویسهای متنوع در زمینههای مختلفی باشیم که میتوانند به کاربران در انجام سریعتر و بهینهتر امور کمک نمایند. برنامهنویسی نیز یکی از همین حوزهها بهشمار میرود و گزینههای گوناگونی برای کمک به توسعهدهندگان در دسترس قرار دارند. در ادامه به معرفی بهترین ابزارهای هوش مصنوعی برای برنامه نویس ها و معرفی مزایای آنها، پرداخته خواهد شد.
هوش مصنوعی برای برنامه نویس ها چه کاربردی دارد؟
ابزارهای هوش مصنوعی برای برنامه نویس ها به منظور نوشتن سریعتر و دقیقتر کدها پدید آمدهاند. چنین سرویسهایی معمولاً میتوانند براساس دستورات ورودی، کدهای خروجی را در اختیار کاربر قرار دهند یا به شکل همزمان، اقدام به تکمیل کردن کدهای نوشته شده توسط توسعهدهندگان نمایند. بسیاری از آنها، با ادیتورها و محیطهای توسعه محبوب مثل ویژوال استودیو، تعامل دارند و قادر به تشخیص اشتباهات، باگها و حتی آسیبپذیریهای امنیتی در موارد خاص هستند.
مشخصاً با توجه به ویژگیهای گفته شده، مهمترین مزیت استفاده از هوش مصنوعی برای برنامه نویس ها، داشتن وقت آزاد بیشتر خواهد بود. همچنین با افزایش دقت و نیاز کمتر به رفع ایرادات کدها، میتوانید بهرهوری خود را افزایش داده و زمان بیشتری را به توسعه محصولات جدید یا انجام امور دیگر، اختصاص دهید.
https://dr-baradaran.ir/wp-content/uploads/2023/09/Best-Programming-Languages-to-Start-Learning-Today-e1694410679268.jpg424653ادمینhttps://dr-baradaran.ir/wp-content/uploads/2023/09/یادگیری-سرآغاز-آگاهیست-300x92.pngادمین2023-09-11 10:08:262023-09-11 10:08:26ابزارهای هوش مصنوعی برای برنامهنویسها؛ کدنویسی خودکار و کشف باگها
سیستمهای هوش مصنوعی فعلی مانند GPT-4 میتوانند به سبک نویسندگانی ازجمله «مارگارت اتوود» یادداشت و داستان بنویسند و حالا هزاران نویسنده نارضایتی خود را نسبت به این موضوع نشان دادهاند. در نامهای که توسط بیش از 8500 نویسنده داستان، مطالب غیرداستانی و شعر امضا شده است، شرکتهای سازنده مدلهای زبانی بزرگ مانند ChatGPT و Bard بهدلیل استفاده بدون اجازه از نوشتههای آنها مورد سرزنش قرار گرفتهاند. به گزارش TechCrunch، در متن این نامه آمده است:
«این فناوریهای زبانی، داستانها، سبک و ایدههای ما را تقلید و آنها را بازگو میکنند. سیستمهای هوش مصنوعی توسط میلیونها کتاب، مقاله و شعر دارای حق چاپ تغذیه شدهاند و میتوانند بدون هیچ هزینهای درخواستهای نامحدودی به کاربران ارائه کنند.»
نکته مشخصی که درباره توسعهدهندگان سیستمهای هوش مصنوعی وجود دارد، این است که آنها بدون کسب مجوز و اجازه از آثار ناشران استفاده کردهاند. نویسندگان در نامه خود توضیح میدهند:
«با استفاده از نوشتههای ما در سیستمهای شما، هوش مصنوعی مولد با پرکردن بازار با کتابها، داستانها و روزنامهنگاری متوسط و ماشینی، به حرفه ما آسیب میزند.»
خواسته نویسندگان از سازندگان مدلهای هوش مصنوعی
نویسندگان در این نامه هشدار دادهاند که با توجه به پیچیدگیها و حواشی مربوط به انتشار آثار بزرگ، وضعیت بهوجودآمده بهویژه به نویسندگان جدیدتر ضربه خواهد زد. آنها از شرکتهای سازنده مدلهای هوش مصنوعی خواستهاند تا موارد زیر را انجام دهند:
دریافت مجوز برای استفاده از مطالب دارای حق نسخهبرداری در برنامههای هوش مصنوعی مولد
پرداخت غرامت منصفانه به نویسندگان بابت استفاده مداوم از آثار انسانها در برنامههای هوش مصنوعی مولد
پرداخت غرامت به نویسندگان بابت استفاده از آثار آنها در خروجیهای هوش مصنوعی
این موضوع درحالی اعلام شده است که ابتدا اتحادیه نویسندگان آمریکا (WGA) چند ماه قبل بهدلیل نگرانی خود نسبت به هوش مصنوعی دست به اعتصاب زد و انجمن بازیگران سینما (فدراسیون هنرمندان تلویزیون و رادیو آمریکا (SAG-AFTRA)) نیز در هفته جاری تصمیم به این کار گرفت.
https://dr-baradaran.ir/wp-content/uploads/2023/09/chatGPT-e1694410265741.jpg480574ادمینhttps://dr-baradaran.ir/wp-content/uploads/2023/09/یادگیری-سرآغاز-آگاهیست-300x92.pngادمین2023-09-11 10:01:202023-09-11 10:01:20نامه هزاران نویسنده به شرکتهای هوش مصنوعی: از سرقت کتابها دست بردارید
انتظار میرود هوش مصنوعی (AI) تولید ناخالص داخلی جهانی را تا سال ۲۰۳۰ به میزان ۱۵.۷ تریلیون دلار افزایش دهد. شناسایی این پتانسیل بالقوه و خارقالعاده هوش مصنوعی توسط سرمایهگذاران بزرگی همچون وارن بافت موجب شده که تمایل زیادی به خرید سهامهای هوش مصنوعی نشان دهند، تا جایی که بافت به تازگی اقدام به سرمایهگذاری در ۵ سهام هوش مصنوعی کرده است.
به گزارش هوشیو، امسال هیچ نوآوری در وال استریت بیشتر از هوش مصنوعی (AI) مورد توجه سرمایهگذاران و متخصصان صنعت مالی قرار نگرفته است.
هوش مصنوعی شامل استفاده از نرمافزار و سیستم برای انجام وظایفی است که معمولاً به انسانها محول میشود. نکته کلیدی، ادغام یادگیری ماشینی (ML) است که به نرمافزار و سیستمها اجازه میدهد در طول زمان «یاد بگیرند» و تکامل یابند. بر اساس گزارش PwC، انتظار میرود این تحول تا سال ۲۰۳۰ ۱۵.۷ تریلیون دلار به اقتصاد جهانی اضافه کند.
پتانسیل نوآورانه و ارقام هنگفت دلاری پشت هوش مصنوعی توجه بسیاری از موفق ترین مدیران پول وال استریت را به خود جلب کرده است و این شامل وارن بافت مدیرعامل میلیاردر برکشایر نیز میشود. بافت با تیم سرمایهگذاری خود تقریبا نیمی از سبد ۳۶۵ میلیارد دلاری برکشایر در سه سهام هوش مصنوعی سرمایهگذاری شده است.
با این حال، قرار گرفتنBerkshire در معرض هوش مصنوعی به همین جا ختم نمیشود. برکشایر هاتاوی، شرکتی که متعلق به وارن بافت است، نه تنها در زمینه هوش مصنوعی سرمایهگذاری میکند، بلکه دارای یک شرکت سرمایهگذاری تخصصی به نام مدیریت دارایی نیوانگلند (NEAM) است. اگرچه بافت مستقیماً بر سرمایهگذاریهای NEAM نظارت نمیکند، داراییهای ۶۹۰ میلیون دلاری که توسط NEAM نگهداری میشود، هنوز بخشی از داراییهای کلی بافت است. بنابراین، این مجموعه مخفی وارن بافت است .
از ۳۰ ژوئن، سبد سرمایهگذاری خصوصی وارن بافت که ۶۹۰ میلیون دلار ارزش دارد، شامل سرمایهگذاری در پنج سهام هوش مصنوعی میشود. این اطلاعات از بایگانیهای فرم ۱۳F میآید، که شامل اسنادی است که مدیران سرمایهگذاری عمومی مانند شرکت وارن بافت؛ برکشایر هاتاوی، ملزم به ارائه به کمیسیون بورس و اوراق بهادار ایالاتمتحده (SEC) برای افشای داراییهای خود هستند.
برای رسیدن به موقعیت کنونی چه مسیری را طی کردهایم؟ در این مسیر به چه قابلیتهایی دست پیدا کردهایم؟ و چه پیشرفتهایی در انتظار ما است؟ برای پاسخ به این سؤالات باید تاریخچه داده را مطالعه کنیم.
گلن بک و بتی اسنایدر – طرح انیاک، آزمایشگاه پژوهشهای بالستیک واقع در ساختمان ۳۲۸ ( تصاویر ارتش ایالات متحده، کالیفرنیا. ۱۹۵۵ – ۱۹۴۷). تصاویر ارتش ایالات متحده. این تصویر در تملک عمومی قرار دارد.
آغاز راه (دهه ۴۰ میلادی)
سالها پیش در ماه دسامبر سال ۱۹۴۵، اولین کامپیوتر الکترونیکی- دیجیتالی همه منظوره ساخته شد. این کامپیوتر انیاک ( محاسبهگر و یکپارچهساز عددی الکترونیک ) نامیده میشد. تا پیش از فرا رسیدن این دوره برای انجام هر کاری به صورت سفارشی یک کامپیوتر مجزا ساخته میشد.
اگر بخواهیم انیاک را با تازهترین پیشرفتهایی که در حوزه فنآوری حاصل شده مقایسه کنیم باید بگوییم که بیشینه کلاک انیاک تک هستهای حدود ۵ کیلوهرتز بوده، در حالیکه سرعت ساعت جدیدترین تراشه ۶ هستهای تعبیه شده در آیفون (Apple A13) برابر با ۲.۶۶ گیگاهرتز است. به عبارت دیگر سیکل واحد پردازنده در هر ثانیه بیش از چهار میلیون برابر افزایش یافته و علاوه بر آن تعداد دستورالعملهایی که واحد پردازنده میتواند در هر یک از این سیکلها انجام دهد افزایش یافته است.
در طول تاریخ پیشرفتهای بیشماری در حوزه سختافزار حاصل شده و انسانها با اتکاء به این پیشرفتها توانستهاند به قابلیتهای جدیدی در زمینه مهندسی نرمافزار دست پیدا کنند. در نتیجه انعطافپذیری نرمافزارها افزایش پیدا کرده و در همان حال لازم است مهندسان مسئولیتپذیری بیشتری داشته باشند. مسلماً مهندسین آرزو دارند بتوانند نرمافزارهایی با همان میزان انعطافپذیری عرضه کنند و در همان حال فشار و زحمت کمتری در این مسیر متحمل شوند
سیر تکاملی دادهها (دهه ۶۰ میلادی – دهه ۹۰ میلادی)
در آغاز هزینه استفاده و نگهداری از سرورها زیاد بود و در عین حال فضای حافظه کمکی و حافظه اصلی و همچنین توان محاسباتی آنها محدود بود و به همین دلیل برنامهنویسها ،از جمله مدیریت حافظه، برای حل مسائل متحمل زحمت زیادی میشدند. در مقابل، امروزه برای انجام این قبیل از کارها ، زبانهای برنامهنویسی با قابلیت زبالهروبی خودکار در اختیار داریم.
به همین دلیل زبانهای C، C++ و FORTRAN به طور گسترده مورد استفاده قرار میگرفتند و کماکان از آنها در حوزههای مهم استفاده میشود؛ در اینگونه حوزهها تلاش ما بر این است که حداکثر استفاده را از کارایی و ارزش یک سیستم داشته باشیم. امروزه نیز اکثر چارچوبهای یادگیری ماشین و تحلیل دادهبه زبان پایتون برای اطمینان از کیفیت عملکرد، از زبان C استفاده میکنند و برنامهنویسها فقط از یک API استفاده میکنند.
شرکتهایی از جمله IBM برای استفاده حداکثری از سیستمهایی که دادهها را سازماندهی میکنند و همچنین به منظور ذخیره کردن، بازیابی و کار کردن با دادهها سرمایهگذاریهای کلانی بر روی برخی مدلها انجام دادهاند. در مقابل مدل سلسله مراتبی از دادهها ارائه شده که در طول دوران بزرگرایانه بسیار رایج و متدوال بوده است. شرکتها با ایجاد یک مدل استاندارد میزان فعالیت ذهنی لازم برای شروع یک پروژه را کاهش دادند و دانشی را که میتوان در پروژههای مختلف به کار بست، افزایش دادند.
در گذشته از بزرگرایانهها برای حل مشکلات روز استفاده میشد اما این گونه رایانهها بسیار گرانقیمت بودند، در نتیجه فقط مؤسسات بزرگ از جمله بانکها توان مالی خرید چنین سیستمهایی را داشتند و میتوانستند به نحوی کارآمد از مزایای آنها بهرهمند شوند. بزرگرایانهها در پیمایش ساختارهای درختی بسیار کارآمد بودند، اما روابط یک به چند آنها به حدی دقیق و پیچیده است که درک و استفاده از آنها برای برنامهنویسان دشوار است.
مدتی بعد مدلهای رابطهای ساخته شدند که امروزه نیروی اکثر دیتابیسهای ما را تأمین میکنند. در مدلهای رابطهای دادهها به صورت دستههای چندتایی (جدولها) با روابط میان آنها نشان داده میشوند. یک رابطه معمولی کلیدی خارجی است که مشخص میکند دادههای درون دو جدول باید با یکدیگر ارتباط داشته باشند. به بیانی سادهتر شما نمیتوانید نمرههایی از یک آزمون درسی داشته باشید اما دانشآموزانی که در این آزمون شرکت کردهاند را نداشته باشید و نمیتوانید کلاسی از دانشآموزان داشته باشید اما معلمی نباشد که به آنها درس بدهد.
دیاگرام رابطهای نشان میدهد جدولها چگونه میتوانند از طریق idها با یکدیگر ارتباط داشته باشند.
با توجه به ساختار دادهها میتوانیم یک زبان استاندارد تعریف کنیم و از این طریق با دادههایی که ساختار مشابهی دارند کار کنیم. سازنده اصلی مدلهای رابطهای، زبان پرسمان ساختاریافته (SQL) را هم ایجاد کرده که زبانی برای مدیرت دادهها است. دلیل آن هم این است که خواندن SQL بسیار آسان است و در همان حال بسیار توانمند است. چنانچه سیستم قابلیت اجرای تابع بازگشتی و تابع پنجره را داشته باشد، SQL تورینگ کامل خواهد بود.
تورینگ کامل به این معناست که اگر زبان زمان کافی داشته باشد میتواند تمامی مشکلات محاسباتی را حل کند. توانایی حل تمامی مشکلات محاسباتی در زمان کافی یکی از ویژگیها و قابلیتهای ممتاز SQL است، اما به این معنی نیست که برای انجام هر کاری میتوان از آن استفاده کرد. به همین دلیل از SQL برای بازیابی و دسترسی به دادهها و از پایتون و زبانهای دیگر برای تحلیل پیشرفته دادهها استفاده میکنیم.
شرکت Oracle در سال ۱۹۷۹ اولین دیتابیس رابطهای را عرضه کرد. این سیستمها سیستمهای مدیریت دیتابیس رابطهای (RDBMS) نامیده میشوند. از آن زمان به بعد RDBMSهای متنباز و تجاری زیادی عرضه شده است. تمامی این عوامل دست به دست یکدیگر دادند تا Apache Software Foundation به یکی از شرکت اصلی ارائهدهنده ابزارهای حوزه «کلان داده» تبدیل شود. با در اختیار داشتن پروانههای آسانگیر این شرکت میتوان در زمان استفاده از کد منبع اصلی کتابخانه فعالیتهای تجاری را انجام داد.
اینگونه سیستمها عملکرد بسیار خوبی در مدیریت و دسترسی به دادههایی با ساختارهای دادهای نرمالسازیشده دارند. با وجود این، همزمان با افزایش حجم دادهها، عملکرد آنها تحت تأثیر حجم کاری زیاد، کاهش پیدا میکند. تکنیکهای بهینهسازی بسیاری از جمله شاخصگذاری و read-replicas و غیره داریم که میتوانیم با استفاده از آنها فشار و حجم کاری سیستمها را کاهش دهیم.
جهان متصل و انواع گوناگون دادهها (دهه ۹۰ میلادی)
پیش از راهیابی کامپیوترها به خانهها و پیش از اینکه هر فردی یک تلفن همراه شخصی داشته باشد، ارتباطات مردم با یکدیگر محدود و دادههای مربوط به این ارتباطات به میزان قابل توجهی کم بود. تقریباً تمامی وبسایتهایی که به آنها مراجعه میکنید پیگیری جریان اطلاعات را فعال کردهاند تا درک بهتری از تجارب کاربران به دست بیاورند و از این طریق نتایج شخصیسازیشده بیشتری به کاربران ارائه دهند.
پس از انکه جمعآوری دادهها به صورت خودکار درآمد و کاربران مجبور بودند نظرات و بازخوردهای خود را در قالب پیمایش، تماسهای تلفنی و غیره ارائه دهند، روند جمعآوری داده سیر صعودی در پیش گرفت. امروزه فعالیتهای ما معرف ما هستند و اعمال و فعالیتهای ما بیشتر از افکار و سخنان ما در معرفی ما نقش دارند. از مدتها پیش نتفلیکس دیگر به شما اجازه نمیدهند به فیلمها امتیاز دهید و یا آنها را رتبهبندی کنید، چرا که متوجه شدهاند این اطلاعات به درک بهتر از این اکوسیستم کمکی نمیکند.
شاخص جستوجوی گوگل و نیاز به MapReduce (اوایل دهه اول قرن بیست و یک)
گوگل جز اولین شرکتهایی است که از فنآوریهای پیشرفته برای جمعآوری دادهها در حجم بالا استفاده کرد؛ هرچند امروزه شرگت گوگل به عنوان یکی از سودآورترین شرکتهای دنیا شناخته میشود اما در اواخر دهه ۹۰ میلادی بودجه کلانی کنونی را در اختیار نداشت. مزیت رقابتی شرکت گوگل در حجم دادهای است که در اختیار دارد و علاوه بر این میتواند به بهترین نحو از این دادهها استفاده میکند.
در زمان آغاز به کار شرکت گوگل تیم مهندسی آن با مشکل پیچیدهای رو به رو شد و میباست آن را رفع کند، اما آنها توان مالی خرید سختافزار شرکتی را نداشتند؛ این سختافزار بسیار گران بود و شرکتهای قدیمیتر برای انجام امور خود به آن متکی بودند. هرچند در آن زمان توان محاسباتی این شرکت بیشتر از شرکتهای دیگر نبود اما با آنها برابری میکرد. تقاضا برای خدمات شرکت گوگل و به طور کلی
وبسایت آن رو به افزایش بود و شرکت گوگل برای آنکه بتواند پاسخگوی نیاز کاربران باشد سیستم فرانکنشتاین را ساخت. قطعات به کار رفته در سِروِر آنها کیفیت پایینی داشت و برای استفاده مصرفکنندگان معمولی طراحی و تولید شده بودند و احتمال خطا در آنها وجود داشت و علاوه بر این، کُدی که از آنها استفاده میکرد، مقیاسپذیر نبود و نسبت به این خرابیها مصون نبود.
در آن زمان جِف دین و سانجی قماوات مهندسان ارشد شرکت گوگل بودند. آنها با جدیت تمام در حال بازنویسی کُدبیس گوگل بودند تا مقاومت آن را در مقابل خرابیها افزایش دهند. یکی از اصلیترین مشکلاتی که با آن مواجه بودند این بود که این سختافزار در حین اجرای برنامهها متوقف میشد و میبایست آن را مجدداً راهاندازی کرد. این دو فرد در هنگام رفع مشکل کدبیس، متوجه یک الگوی ثابت شدند که میتوانند چارچوب را بر مبنای آن بسازند. این الگو MapReduce نامیده میشد.
MapReduce یک مدل برنامهنویسی است و شامل دو مرحله است، مرحله نگاشت و مرحله کاهش. منظور از نگاشت شکستن یک تسک بزرگ به تسک های کوچک تر است و منظور از کاهش جمع بندی تمام نتایج برای تولید نتیجه کار اولیه است. این چارچوب دارای یک رابط ساده است که با استفاده از آن میتوان یک کار را در میان ورکِرهای مختلف یک خوشه به اجزای کوچکتر تقسیم کرد. اگر بتوانیم کاری را به قسمتهای کوچکتر تقسیم کنیم، در صورت بروز هر گونه خطا میتوانیم کار را بدون نیاز به اجرای مجدد آن، بازیابی کنیم. علاوه بر این، تقسیم یک کار به قسمتهای کوچکتر به این معناست که سیستم مقیاسپذیرتر و قویتر است. راههای زیادی برای ارتقای عملکرد سیستم MapReduce وجود دارد و همزمان با توضیح لایههای انتزاعی آنها را نیز بررسی میکنیم.
گوگل با استفاده از MapReduce توانست مقیاس زیرساخت خود را با سرورهایی که ارزان بودند و ساخت و نگهداری آنها آسان بود، افزایش دهد. آنها میتوانند به صورت خودکار خطاهای کد را بررسی کنند و حتی میتواند به آنها هشدار دهد که ممکن است سرور به تعمیر نیاز داشته باشد و برخی قطعات را باید جایگزین کرد. این کار موجب شده گراف وب به اندازهای بزرگ شود که فقط ابرکامپیوترها بتوانند مقیاس آن را اداره کنند.
جف دین و سانجی قماوات کماکان در این شرکت فعالیت دارند و در بسیاری از پیشرفتهایی که در حوزه فنآوری حاصل شده و چشمانداز داده را شکل داده مشارکت داشتهاند.
MapReduce به عنوان یک پیادهسازی متن باز- مقدمهای بر Hadoop (اواسط دهه اول قرن بیست و یک)
شرکت گوگل ابزارهاِ گوناگون را برای استفاده در سیستمهای داخلی و درونسازمانی خود طراحی و تولید میکند. اما این شرکت دانش خود را در قالب مقالات علمی در اختیار دیگران قرار میدهد. در مقاله MapReduce: پردازش آسان داده در خوشههای بزرگ مدل برنامهنویسی MapReduce به طور خلاصه توضیح داده شده است و در قسمت ضمیمه نمونهای از پیادهسازی الگوریتم شمارش کلمات قرار داده شده است.
تعداد کدهایی که برای نوشتن یک کار MapReduce لازم است بیشتر از تعداد کدهای پایتون برای انجام همان کار است. کدهای پایتون فقط بر روی یک ریسه واحد اجرا میشود و توان عملیاتی آن محدود است، در مقابل MapReduce با هر تعداد سروری که برای انجام یک کار نیاز داریم، مقیاسبندی میشود.
تفاوت سیستمهای اولیه با سیستمهای امروزی در پیچیده بودن و قابلیت مقیاسپذیری آنها است و سیستمهای اولیهای که MapReduce را توانا میساختند بسیار پیچیده بودند.
اواسط دهه اول قرن بیست و یک داک کاتینگ و مایک کافارلا مقاله گوگل حول موضوع MapReduce را مطالعه کردند و علاوه بر این مقاله دیگری حول موضوع سیستم فایل توزیعشده گوگل موسوم به سیستم فایل گوگل مطالعه کردند. در آن زمان این دو فرد بر روی یک خزنده وب توزیع شده موسوم به Nutch کار میکردند و متوجه شدند آنها هم برای مقیاسپذیر کردن سیستم خود همین مشکل را دارند.
داگ به دنبال یک شغل تمام وقت بود و در نهایت به استخدام یاهو در آمد و از آن جایی که در آن زمان یاهو از شرکت گوگل عقب مانده بود، ایده ساخت سیستم متن باز برای توانا ساختن شاخصگذاری مقیاس بزرگ را از داگ خرید. شرکت یاهو کاتینگ را استخدام کرد و از او خواست به کار کردن بر روی پروژه Nutch که باعث بسط دادن سیستم فایل توزیعشده و چارچوب محاسباتی میشد ادامه دهد و این در حالی بود که سیستم فایل توزیعشده و همچنین چارچوب محاسباتی از اجزای اصلی هدوپ بودند.
سیستم فایل توزیعشده و چارچوب محاسباتی سیستم فایل توزیعشده هدوپ و Hadoop MapReduce نامیده میشدند. همزمان با اینکه سیستم فایل توزیعشده و چارچوب محاسباتی در هدوپ خلاصه شدند، هدوپ وارد چرخه هایپ (محبوبیت) شد و به همین دلیل این نامگذاری کمی عجیب به نظر میرسد.
MapReduce برای مصون ماندن در مقابل خطاهایی که در کل پشته سختافزار روی میدهد، از سیستم فایل توزیعشده استفاده میکند. جِف دین این مطلب را در ظهور سیستمهای رایانش ابری توضیح داده و در بخشی از این مقاله عنوان میکند که « قابلیت اطمینان باید از جانب نرمافزارها تأمین شود» و در ادامه خطاهایی که در سال ۲۰۰۶ در یک خوشه معمولی گوگل روی داده را شرح میدهد:
کابلکشی مجدد شبکه ( حدود ۵ درصد از ماشینها به مدت دو روز خاموش میشوند)
خطای رَک (۴۰ تا ۸۰ ماشین درون یک رک ناپدید شدند، بازگرداندن آنها ۱ تا ۶ ساعت طول کشید)
رَکها ضعیف شدند ( ۴۰ تا ۸۰ ماشین درون یک رک با ۵۰ درصد مشکل ارتباطی مواجه شدند)
نگهداری شبکه ( ممکن است به طور تصادفی باعث قعطی ۳۰ دقیقهای در ارتباطات شود)
بارگذاری مجدد مسیر ( سرویس DNS و vipهای مجازی برای دقایقی از دسترس خارج شدند)
خطاهای مسیریاب ( ترافیک دادهها برای یک ساعت قطع میشود )
دههاخطای کوچک سی ثانیهای بر روی سرویس DNS، تقریباً ۱۰۰۰ ماشین خاموش شدند
خطا در دیسک حافظه موجب کندی، مشکل در حافظه، اشتباه در تنظیمات ماشینها، ماشینهای بیثبات و غیره میشود
روشهای زیادی برای ارتقای عملکرد پشته وجود دارد، برای مثال میتوان دادهها را در حجم کم جا به جا کرد و از این طریق تأخیر در شبکه را به حداقل رساند. به منظور دستیابی به این هدف به جای اینکه حافظه کمکی را NFS و یا SAN نگهداری کنیم، با استفاده از دیسکهای بزرگ محاسبه را در حافظه انجام میدهیم. در زمان انجام محاسبات در حافظه نمیخواهیم یک گره خاص در یک خوشه محاسبات بسیار زیادی انجام دهد چرا که حاوی داده است. علاوه بر این باید یک کپی از دادهها تهیه کنیم، در این صورت اگر گرهای از کار افتاد با مشکل مواجه نخواهیم شد و میتوانیم کار را تقسیم کنیم. اگر به نمونه خطاهایی که گوگل توضیح داده نگاهی بیندازیم، متوجه میشویم که باید آمادگی لازم برای مقابله با خطاهای گرهها و خطای رک را داشته باشیم . به عبارت دیگر باید با انواع خطاهای رک در حافظه آشنایی داشته باشیم و چندین کپی از دادهها داشته باشیم.
«مجموعه¬ای از تاخیرها که هر برنامه نویسی باید بداند» – پی. استارک
اولین مدل MapReduce به نام Hadoop MapReduce به دانش زیادی در زمینه فرایند MapReduce و مبانی بهینهسازی عملکرد در چارچوب نیاز داشت. یکی از اصلیترین مشکلات MapReduce این بود که نمیتوانستیم فرایندهای پیچیدهای بر روی آن تعریف کنیم. در آن زمان سیستمی برای ایجاد منطقهای پیچیده وجود نداشت.
در عوض، Hadoop MapReduce بلوکهای سطح پایینتر را برای انجام محاسبات مقیاسپذیر ارائه میداد اما نمیتوانست به نحوی کارآمد آنها را هماهنگ کند. یکی دیگر از نقاط ضعف Hadoop MapReduce استفاده از دیسک بود و چیزی بر روی حافظه ذخیره نمیشد. در زمان عرضه MapReduce حافظه بسیار گران بود و اگر حافظه پر میشد، در انجام کارها اختلال به وجود میآمد . همه مواردی که به آنها اشاره کردیم نشان میدهند که Hadoop Reduce کند و نوشتن برای آن دشوار بوده، اما در همان حال ثابت و مقیاسپذیر بود.
به منظور حل این مشکلات چندین راهکار از جمله Pig (رونویسی، Hive ( زبان پرسمان ساختاریافته)، MRJob (پیکربندی) ارائه شد. تمامی این راهکارها موجب شدند MapReduce، الگوریتمهای تکراری، بویلرپلیت کمتر، انتزاع ( مخفی کردن نحوه پیادهسازی) بهتر کد را توانا سازد. وجود اینگونه ابزارها به افرادی که تخصص کمتری در حوزه مهندسی نرمافزار دارند و تجربه کمتری در حوزه جاوا دارند کمک کرد از مزایای «کلان داده» بهرهمند شوند.
کاهش مسئولیتپذیری و افزایش انعطافپذیری با استفاده از انتزاعها (اوایل دهه دوم قرن بیست و یکم)
همزمان با ظهور و افزایش میزان استفاده از فنآوری ابری با وب سرویسهای آمازون (AWS) در اوایل دهه دوم قرن بیست و یکم، این سؤال برای مردم پیش آمد که چگونه میتوانند حجم کاری هدوپ را بر روی AWS اجرا کنند. AWS تمامی شرایط و ویژگیهای لازم برای اجرای حجمهای کاری تحلیلی را داشت، حجمهای کاری تحلیلی برای مدت زمان کوتاهی اجرا میشدند و سرورها در مدت زمان باقیمانده در یک مرکز داده منتظر باقی میماندند.
با وجود این در آن زمان Hadoop MapReduce تا حد زیادی به سیستم فایل HDFS متکی بود. در آن زمان استفاده از راهکارهای ذخیرهسازی مقیاسپذیر غیر ممکن بود؛ این راهکارها که محصول فنآروی ابری بودند و میتوانستند خوشهها را از رده خارج کنند. چگونه میتوانستیم این حجمکاری را به ابر منتقل کنیم و همزمان با مقیاسپذیر کردن حجم کاری خود هزینهها را کاهش دهیم و از مزایای فضاهای ابری بهرهمند شویم؟ اگر محدودیت عدم استفاده از حافظه را برطرف میکردیم و شرایطی فراهم میکردیم تا دادهها را با مقدار تأخیر کمتری در حافظه نگهداری کنیم چه اتفاقی میافتاد؟ چگونه میتوانیم فرایندهای تکرارپذیر همچون فرایندهای یادگیری ماشین را انجام دهیم؟
Spark ابتدا در سال ۲۰۱۴ با هدف تحقق همین اهداف عرضه شد. مقاله اصلی در سال ۲۰۱۰ منتشر شد. نویسندگان این مقاله متوجه شدند اگر فقط کمی از حافظه استفاده شود عملکرد تا ۱۰ برابر افزایش پیدا میکند و علاوه بر این پیچیدگیهای برنامهنویسی تا حد زیادی کاهش پیدا میکند.
Spark 1.x عملکرد بسیار خوبی در مقیاسبندی و کار کردن با دادهها نداشت. مدل برنامهنویسی Spark 1.x کماکان پیچیده است و برای نوشتن کد به دانش زیادی لازم است. Spark انعطافپذیری زیادی داشت و مجموعهای از مسئولیتها که وجود آنها ضروری نبود را حذف کرد. Spark ابزار نسل دوم و فوقالعاده ای بود و از آن زمان شهرت و محبوبیت آن افزایش چشمگیری داشته است. در ابتدا عملکرد آن نسبت به هدوپ بهتر بود و همزمان با شکلگیری نیازهای جدید، Spark نیز تکامل پیدا کرد.
مقایسه Spark و هدوپ توسط Google Trends
ارتقای تجارب (اواسط دهه دوم قرن بیست و یک)
تا سال ۲۰۱۶ ، Spark به اندازه کافی تکامل یافته بود و به همین دلیل مردم به استفاده از این مدل برنامهنویسی روی آوردند. از افرادی که در زمینه مهندسی نرمافزار تجربه نداشتند خواسته میشد از دادهها خلق ارزش کنند. به همین دلیل حوزه علم داده بر استخراج ارزش از دادهها به روشی علمی متمرکز بود و مسیر پیشرفت و تکامل را در پیش گرفته بود.
Pandas به عنوان ابزاری معرفی شد که همه میتوانند با بهرهگیری از آن با دادهها کار کنند و به همین دلیل شهرت زیادی پیدا کرد. Pandas یک API ساده در اختیار کاربران قرار میداد. این ابزار را وِس مککینی در Two Sigma ساخت؛ هدف از ساخت این ابزار آسان کردن زندگی برای پژوهشگران کمّی بود. این پژوهشگران برای تحلیل دادهها مجبور بودند یک کد را بارها ایجاد کنند. Two Sigma این کتابخانه را به صورت متنباز در آورد و آن را به الگویی برای چگونگی برقراری ارتباط انسانها با دادهها تبدیل کرد.
گروهی که بر روی Spark کار میکردند متوجه شدند که بسیاری از کاربران آنها کارهای اولیه خود را در Pandas انجام میدهند و پس از آنکه ایدههایشان به اندازه کافی پرورش یافت از Spark استفاده میکنند. استفاده جداگانه از این دو ابزار موجب شد بار کاری انسجام نداشته باشد و برای آنکه کد مناسب مدل MapReduce در Spark شود باید آن را دوباره مینوشتند.
Spark به دلیل اینکه کاربران از Pandas استفاده میکردند DataFrame API را اضافه کرد که از Pandas API تقلید میکرد؛ به عبارت دیگر، کاربران Spark میتوانستند از همان بارکاری استفاده کنند اما میبایست آن را در مقابل موتور MapReduce اسپارک اجرا کنند ، در این حالت امکان مقیاسبندی حتی در طول مرحله تحلیل نیز وجود داشت.
علاوه بر کاربرد برنامهای Spark، تعدادی از کاربران آنها تمایل داشتند از SQL برای دسترسی به دادهها استفاده کنند. همانگونه که پیش از این گفتیم، از SQL تقریباً به مدت پنجاه سال برای دسترسی به دادهها استفاده میشود. تیم Spark در آن زمان تصمیم فوقالعادهای گرفتند، آنها تصمیم گرفتند Spark SQL را توانا سازند اما از همان موتور بهینهسازی که برای DataFrame API نوشته بودند، استفاده کند.
استفاده از یک موتور بهینهسازی واحد موجب میشد کدی که مینوشتند رابط SQL و همچنین رابط برنامهای آنها را تحت تأثیر قرار دهد. این موتور بهینهساز Catalyst نامیده میشد و همانند بهینهساز برنامه پرسمان در یک RDBMS قدیمی کار میکرد. Spark 2.0 تمامی این قابلیتها را داشت و به همین دلیل کارایی آن تا حد زیادی افزایش یافت.
بهینه سازCataliyst توسط Databricks
کاهش مسئولیت با همان میزان انعطافپذیری (۲۰۲۰)
ماه ژوئن سال ۲۰۲۰ جدیدترین و پیشرفتهترین نسخه Spark یعنی Spark 3.0 عرضه شد، این نسخه از Spark قابلیتهای جدیدی ندارد اما عملکرد، قابلیت اطمینان و قابلیت استفاده آن ارتقا پیدا کرده است.
به منظور ارتقای عملکرد، Spark اجرای تطبیقی پرسمان و حذف پویای پارتیشن را اضافه کرده است، هر دوی مواردی که از آنها نام برده شد حتی در حوزه RDBMS نیز پیشرفتهای نسبتاً جدیدی به حساب میآیند. ارتقای عملکرد میتواند مزایای بسیاری به همراه داشته باشد. مطابق با معیارهای TPC-DS، حذف پویای پارتیشن از ۶۰ پرسمان از میان ۱۲۰ پرسمان بین ۲ برابر و ۱۸ برابر ارتقا پیدا میکند.
به عبارت دیگر، اگر شرکتها از Spark استفاده کنند، محاسبات کمتری باید انجام دهند و هزینههای آنها در زمینه زیرساخت کاهش پیدا میکند و بیشتر بر روی نتایج تمرکز میکنند. کاربران به این قابلیتهای جدید واقف هستند و نیازی به بازنویسی کدها وجود ندارد.
برای افزایش قابلیت اطمینان، تیم Spark تعداد قابل توجهی از باگها (۳.۴۰۰) را بین شاخههای ۲.x و ۳.۰ رفع کردند و این امکان را برای کاربران فراهم کردند تا بهتر بتوانند خطاهای پایتون را کنترل کنند تا استفاده از API پایتون آسانتر شود. علاوه بر این، ارتقای عملکرد موجب میشود بدون نیاز به تغییر مدل مسئولیت Spark، انعطافپذیری آن افزایش پیدا کند.
برای افزایش قابلیت استفاده، Spark یک UI جدید برای استفاده در موارد کاربرد جدید ارائه داده است که اطلاعات بیشتری راجع به آمارهای mini batch و به طور کلی وضعیت پایپ لاین ارائه میدهد. در بسیاری از موارد کاربرد، به سختی متوجه میشدیم که چه زمانی سیستم تأخیر دارد و چگونه میتوانیم به نحوی کارامد به این تغییرات از جمله مقیاسبندی گرههای جدید یا مقیاسبندی به منظور کاهش هزینهها واکنش نشان دهیم.
Spark 3.0 بدون کاهش میزان انعطافپذیری، مسئولیت کاربران نهایی را کاهش میدهد و کماکان به پیشرفت و ارتقای این حوزه کمک میکند. این قابلیت Spark به ما کمک میکند چالشهای بیشتری را حل کنیم و تا حد زیادی عملیاتهای خود را ارتقا دهیم و و بر روی کارهای ارزشآفرین تمرکز کنیم.
تاریخچه عرضه ابزارهای مورد استفاده در حوزه «کلان داده». همانگونه که در تصویر فوق نشان داده شده، تا چندی پیش هر دو سال یک بار در زمینه انتزاع (مخفیکردن نحوه پیادهسازی) پیشرفتهایی حاصل میشد. همزمان با تکامل MapReduce و دسترسی کاربران به پشته فنآوری، ترندهای اخیر افزایش میزان استفاده از فنآوری ابری را نشان میدهند.
چالشهای امروز – آینده پیش رو
در این مقاله به بحث و گفتوگو راجع به هدوپ و Spark پرداختیم و سیر تکامل و پیشرفت این حوزه را در طول زمان بررسی کردیم. بیش از ۱۰۰ ابزار در حوزه «کلان داده» وجود دارد که هر کدام موارد کاربرد خاصی دارند و برای حل مشکلات و مسائل خاصی طراحی شدهاند. اگر به رابطهایی مشابه SQL دادهها در چارچوبهای توزیعشده نگاهی بیندازید، به Hive، Presto و Impala میرسید که هر کدام مسئول حل چالشهای متفاوتی در این حوزه بودهاند. چنانچه به پیاپیسازی داده از جمله CSV قدیمی و ناکارآمد علاقهمند هستید تا ذخیرهسازی و مدت زمان محاسبه را کاهش دهید به Avro، Parquet، ORC و Arrow میرسید.
از زمان آغاز چرخه هایپ «کلان داده» در سال ۲۰۱۰، پیشرفتهای زیادی در این حوزه حاصل شده است. در حال حاضر شرکتهایی از جمله آمازون، مایکروسافت و گوگل خدمات ابری ارائه میدهند و قابلیتهایی را ممکن میسازند که پیش از این داشتن آنها در حد رویا بود. فنآوری ابری بر مقیاسپذیری بارکاری متمرکز است. در عوض شما مبلغی مازاد بر ارزش واقعی مرکز داده پرداخت میکنید و نیاز به حفظ و نگهداری جنبههای فنی، عملیاتی، نظارتی و غیره زیرساخت مرکز داده را کاهش میدهید. اگر موارد کاربرد تحلیلی را بررسی کنیم متوجه میشویم که در همه آنها از سختافزار استفاده میشود و به همین دلیل میتوانیم از فنآوری ابری در آنها استفاده کنیم.
ارائهدهندگان خدمات ابری برای بار کاری «کلان داده» فرایند مقیاسبندی عمودی و افقی و کاهش مقیاس را بر روی راهکارهای خود انجام میدهند. برای نمونه میتوان به EMR (آمازون)، Azure Databricks (مایکروسافت) و Dataproc (گوگل) اشاره کرد که هر کدام از این ارائهدهندگان از بار کاری موقتی بر ر روی فضای ابری پیشتیبانی میکنند. این ارائهدهندگان راهکارهایی از جمله ذخیرهسازی اشیا S3، Azure Lake Storage و Google Cloud Storage برای ذخیرهسازی ارائه دادند و انجام محاسبات را به فضای دیگری- به غیر از حافظه- منتقل کردند.
اگر میخواهید تحلیلی انجام دهید، آن را در خوشهای مجزا انجام میدهید بدون اینکه بر روی کارهای در حال اجرای دیگران تأثیر بگذارید. تنظیم دقیق خوشه چالش بسیار بزرگی بود چرا که بارهای کاری مختلف چالشهای عملکردی متفاوتی دارند. با رفع این چالش، متخصصین میتوانند به جای تمرکز بر روی زیرساخت، توجه خود را به تحقق اهداف معطوف کنند.
افزون بر این، ما میخواهیم فشار بر روی کدها را هم کم کنیم. در دنیای امروزی موارد کاربرد لحظهای و بیشماری داریم. پیش از این مجبور بودیم دو کد بیس جداگانه داشته باشیم تا بتوانیم عملکردی درخور هر یک از موارد کاربرد داشته باشیم. پس از مدتی متوجه شدیم که دسته فقط یک مورد خاص اجرا است، پس بهتر نیست روش استفاده از آن را به کار ببندیم؟ Flink، Spark و Beam به روشهای متفاوتی در تلاش هستند تا این مشکل را حل کنند، چه به صورت first-class citizen (Beam) یا با تغییر APIهای خود تا آن را برای کاربران نهایی آسان کنند (Flink\Spark).
در مرکز تمامی این پیشرفت ها نیاز به توانا سازی تحلیلهای پیچیده دیتاستهای حجم بالا احساس میشود. ما باید موارد کاربرد یادگیری ماشین و هوش مصنوعی را برای دادهها آسان کنیم. برای انجام این کار، فقط پردازش دادهها کافی نیست، باید بتوانیم این فرایند را بدون دخالت کاربر نهایی انجام دهیم. استفاده همگانی از ابزارهای هوش مصنوعی و یادگیری ماشین طی بیست سال گذشته با استفاده از scikit-learn، Keras ، Tensorflow، Pytorch، MXNet و تعداد زیادی دیگری از کتابخانهها صورت گرفته است تا امکان مدلسازی آماری و همچنین موارد کاربرد یادگیری عمیق را فراهم سازد. هدف از استفاده از این ابزارها در حوزه کلان داده درس گرفتن از این ابزارها و استفاده مستقیم از آنها است.
منظور از کلان داده چیست؟
دهها میلیون انسان، میلیاردها حسگر، تریلیونها تراکنش اکنون برای ایجاد مقادیر غیرقابل تصور اطلاعات کار میکنند. آیا این حجم از داده را میتوان به روشهای سنتی ذخیره، پردازش و نگهداری نمود؟ بدون شک پاسخ منفی است. در این جاست که بحث کلانداده با نامهای دیگری نظیر بیگ دیتا، دادههای بزرگ و مَهداده مطرح میشود. کلانداده با سه ویژگی اصلی حجم زیاد، سرعت تولید بالا و تنوع زیاد توانسته کسبوکارهای مختلفی را دچار تحول نماید و مرزهای دانش را در زمینههای گوناگون جا به جا کند. در این بخش به معرفی این منبع ارزشمند و فناوریهای مرتبط با آن، انواع کلانداده و کاربردهای آن در حوزههای مختلف اشاره میکنیم. پس با ما همراه باشید.
تعریف کلان داده
کلانداده که معمولا در کنار مفاهیمی نظیر دادهکاوی و یا هوش تجاری شنیده میشود، پیشنیاز اصلی برای انجام تحلیلهای پیشرفته است. به عبارت دیگر کلان داده متشکل از حجم فزایندهای از دادههای متنوع است که با سرعت بسیار بالا تولید میشوند.
به دلیل حجم زیاد و سرعت تولید بالا کلانداده دیگر نمیتوان آن را توسط سختافزارها و نرمافزارهای سنتی پردازش داده مدیریت کرد. این امر باعث شده که بسیاری از افراد و یا سازمانها به طور تخصصی بر روی راهکارهای پردازش کلاندادهها تمرکز نمایند زیرا با وجود چالشهای موجود در نگهداری، پردازش و مدیریت این دادههای وسیع، میتوان به کمک آنها بسیاری از مشکلات تجاری که قبلا مقابله با آنها بسیار دشوار بود را به راحتی حل کرد. در زیر به چند نمونه از اثرات پردازش کلاندادهها و تأثیر حضور آنها در دنیای امروز اشاره میکنیم:
تعیین علل ریشه ای خرابیها، مسائل و عیوب در لحظه
تشخیص ناهنجاریها، سریعتر و دقیقتر از چشم انسان
بهبود نتایج بیمار با تبدیل سریع دادههای تصویر پزشکی به بینش
محاسبه مجدد کل پرتفوی ریسک در چند دقیقه
تشدید توانایی مدلهای یادگیری عمیق برای طبقهبندی دقیق و بروز واکنش مناسب به متغیرهای دائما در حال تغییر
کلان داده چه ویژگیهایی باید داشته باشد؟
همانطور که در تعریف کلانداده اشاره شد، این مجموعه از دادهها دارای سه ویژگی اصلی حجم فزاینده (Volume)، تنوع (Variety) و سرعت تولید بالا (Velocity) هستند که اصطلاحا به آنها ۳V میگویند که به طور شماتیک در شکل زیر نشان داده شده است:
حجم (Volume): حجم کلانداده از سایز ترابایت تا زتابایت و حتی بیشتر متغیر است.
تنوع (Variety): با توجه به اینکه دادههای موجود در کلاندادهها از منابع مختلفی بوجود میآیند، بنابراین فرمهای مختلفی دارند، از دادههای ساختاری و عددی در پایگاههای داده سنتی گرفته تا اسناد متنی بدون ساختار، ایمیلها، فیلمها، فایلهای صوتی، دادههای مربوط به سهام و تراکنشهای مالی.
سرعت تولید (Velocity): یکی از تفاوتهای اصلی کلاندادهها با مجموعههای سنتی داده، سرعت تولید و ذخیرهسازی آنها است. با رشد اینترنت اشیا، دادهها با سرعت بیسابقهای وارد کسبوکارها میشوند و باید به موقع مدیریت شوند. تگهای RFID، حسگرها و کنتورهای هوشمند نیاز به مقابله با این حجم زیادی از دادهها را در زمان واقعی ایجاد میکنند.
البته لازم به ذکر است، امروزه، دو ویژگیهای دیگری نظیر صحت و ارزش، به این مجموعه ۳V به عنوان ویژگیهای اصلی کلاندادهها اضافه شده است که بیشتر بر کیفیت یک کلانداده دلالت میکنند:
صحت (Veracity): دادههای اشتباه و یا غیردقیق به راحتی میتوانند افراد و سازمانها را از مسیر درست و بهینه منحرف کنند. منظور از دادههای اشتباه و یا غیر دقیق، وجود تعصب، ناهنجاریها یا ناسازگاریها، تکثیرها و بی ثباتیها است که میتواند کیفیت یک کلانداده و متعاقبا تحلیلهای برگرفته از آن را به شدت تحت تأثیر قرار دهد.
ارزش (Value): کلانداده زمانی مفید است که پردازش آن ما را به اهدافمان نزدیکتر کند و بینشهایی را فراهم کند تا بتوان در تصمیمگیری از آن استفاده کرد. لزوما نگهداری و ثبت هر دادهای این مشخصات را ندارد. بنابراین یکی از معیارهای کیفی کلانداده ارزش دادههای موجود در آن است.
نمونههایی از کلان داده
در این بخش، به نمونهای از شرکتهایی که با بهرهگیری از کلاندادههای خود توانستند به میزان قابل توجهی پیشرفت کنند اشاره میکنیم تا بتوانیم درک عمیقتری از این مفهوم و اهمیت آن پیدا کنیم.
آمازون
بدون شک یکی از قدرتمندرین شرکتها در زمینه تجارت الکترونیک است که بخشی اعظمی از قدرت خود را مدیون پایگاه داده بزرگش است. این شرکت توانسته به طور مداوم از کلاندادهاش برای بهبود تجربه مشتریان خود استفاده کند، در اینجا تنها به دو مورد از استفاده آمازون از مجموعههای عظیم دادههایش اشاره میکنیم:
قیمتگذاری پویا
همه میدانند که خطوط هوایی هنگام فروش بلیط هواپیما از تکنیک قیمتگذاری پویا استفاده میکنند، اگر بلیطهای یکسان را بارها و بارها بررسی کنید، احتمالاً به این معنی است که واقعاً آنها را میخواهید و حاضرید برای آنها هزینه بیشتری بپردازید. همین منطق در وب سایت آمازون پیاده سازی شده است. اما چیزی که احتمالاً نمی دانستید این است که آنها قیمتهای خود را تا ۲.۵ میلیون بار در روز تغییر می دهند. عواملی مانند الگوهای خرید، قیمتهای رقیب و نوع محصول بر این تغییرات قیمت تأثیر میگذارد که همگی با پردازش کلانداده حاصل میگردد.
پیشنهاد محصول
فرقی نمیکند که شخص محصولات را بخرد، آن را در سبد خرید بگذارد یا حتی فقط نگاهی به آن بیندازد، آمازون از آن دادهها استفاده خواهد کرد. به این ترتیب آنها میتوانند یاد بگیرند که هر مشتری چه چیزی می خواهد و دوست دارد، که همان محصول یا محصولات مشابه را زمانی که مجددا بازگشت به او توصیه کنند. از این طریق آمازون توانسته ۳۵ درصد از فروش سالانه خود را انجام دهد!
مکدونالد
صنعت غذا و روندهای موجود در آن همیشه در حال تغییر هستند و افراد در این زمینه بخواهند در اوج بمانند، باید بتوانند با آنها تغییر کنند و این دقیقا همان کاری است که مک دونالد انجام داده است. با افزایش روند زندگی سالم و استفاده از سفارش آنلاین، خیلی از فست فودها با مشکل مواجه شدند. در این زمان مکدونالد تصمیم گرفت از دادههایی که طی سالها جمعآوری کرده بود، استفاده کند. آنها میخواستند از بازاریابی انبوه به سفارشی سازی انبوه منتقل شوند که برای انجام چنین کاری، باید قفل دادهها را به گونهای باز میکردند که برای مشتریان مفید باشد.
استفاده از کلانداده باعث شد که آنها به منوهای دیجیتالی روی آورند که بر اساس عوامل مختلفی نظیر زمان، آب و هوا و داده های گذشته فروش تغییر میکند. به این ترتیب آنها می توانند به مشتریان خود یک نوشیدنی سرد در یک روز گرم یا شاید یک قهوه همراه با منوی صبحانه در یک روز سرد پیشنهاد دهند.
علت اهمیت کلان داده
اهمیت دادههای بزرگ صرفاً به میزان دادهها بستگی ندارد، بلکه ارزش آنها به نحوه استفاده شما بستگی دارد. با گرفتن دادهها از هر منبع و تجزیه و تحلیل صحیح آن، میتوانید به موارد زیر به راحتی دست پیدا کنید:
تصمیمگیری سریعتر و بهتر
کسبوکارها میتوانند به حجم زیادی از دادهها دسترسی داشته باشند و منابع متنوعی از دادهها را تجزیه و تحلیل کنند تا بینش جدیدی به دست آورند و اقدامی مناسب انجام دهند.
کاهش هزینه و افزایش بهرهوری عملیاتی
ابزارهای انعطافپذیر پردازش و ذخیرهسازی دادهها نظیر سرورهای ابری میتوانند به سازمانها در صرفهجویی هزینهها در ذخیرهسازی و تجزیه و تحلیل مقادیر زیادی از داده کمک کنند تا بتوان از طریق آنها الگوهای نهفته و بینشها را کشف کرد و کسب و کار کارآمدتری را ایجاد نمود.
بهبود ورود آگاهانه به بازار
تجزیه و تحلیل دادهها از حسگرها، دوربینها، گزارشها، برنامههای کاربردی تراکنش، وب و رسانههای اجتماعی، سازمان را قادر میسازد که داده محور باشد و بتواند نیازهای مشتری و ریسک های بالقوه را اندازه گیری کند و آگاهانه محصولات و خدمات جدید ایجاد و ارائه نماید.
انواع کلان داده
کلانداده را میتوان با توجه به نوع دادههایی که در خود ذخیره میکند به سه دسته کلی زیر تقسیمبندی کرد:
ساختاریافته: هر دادهای که بتوان آن را به طور مستقیم پردازش و به آن دسترسی پیدا کرد و به صورت یک فرمت ثابت ذخیره نمود، داده ساختاریافته نامیده می شود که در جدول زیر نمونهای از این نوع داده نشان داده شده است. در طول برههای از زمان، به دلیل توانایی در مهندسی نرمافزار، در ایجاد تکنیکهایی برای کار با این نوع دادهها پیشرفتهای چشمگیری ایجاد گردید. با این حال، با افزایش چشمگیر حجم دادهها در کلاندادهها، پردازش این نوع از دادهها با چالشهایی همراه بوده است. با این وجود، مشکلات پردازش کلاندادههای ساختار یافته به نسبت پردازش دادههای ساختار نیافته کمتر است.
ساختار نیافته: کلان داده ساختارنیافته شامل تعداد زیادی از دادههای بدون ساختار نظیر فایلهای تصویری، صوتی، متنی و فایلهای ویدئویی است. هر دادهای که دارای ساختار یا مدل ناآشنا باشد به عنوان داده بدون ساختار در نظر گرفته میشود. تعداد این نوع از دادهها بسیار زیاد میباشد به همین دلیل این نوع از کلانداده از اهمیت بسزایی برخوردار است. با این حال با توجه به نیاز به آمادهسازی این نوع از دادهها جهت پردازش، مشکلات متفاوتی در بهرهبرداری از آنها وجود دارد.
نیمه ساختار یافته: کلانداده نیمه ساختاریافته همانطور که از نامش نیز مشخص است متشکل از دادههای ساختاریافته و ساختارنیافته است. این نوع از کلاندادهها به طور خاص به دادههایی اشاره میکنند که با وجود اینکه در قالب یک پایگاه داده مشخص قرار نگرفته باشند، اما حاوی برچسبها و یا اطلاعات ضروری هستندکه اجزای منفرد را در داخل دادهها جدا میکند.
منابع اصلی دسترسی به کلان داده
دادههای موجود در کلاندادهها از منابع مختلفی بدست میآیند که در این بخش به اصلیترین آنها اشاره میگردد:
دادههای جریانی (Streaming data) از اینترنت اشیا (IoT) و سایر دستگاههای متصل به سیستمهای فناوری اطلاعات از دادههای مکانی افراد، ابزارهای پوشیدنی، خودروهای هوشمند، دستگاههای پزشکی، تجهیزات صنعتی و غیره بدست میآیند. شما میتوانید این کلانداده را به محض رسیدن تجزیه و تحلیل کنید، تصمیم بگیرید که کدام داده را نگه دارید یا نه، و کدام یک نیاز به تجزیه و تحلیل بیشتری دارد.
دادههای موجود در سایتها و رسانههای اجتماعی که ناشی از تعاملات بین افراد در فیسبوک، یوتیوب، اینستاگرام و غیره میباشند. این دادهها در قالبهای تصویر، ویدیو، صدا، متن و صدا جمعآوری میشوند که برای عملکردهای بازاریابی، فروش و پشتیبانی مفید هستند. این کلاندادهها اغلب به شکلهای بدون ساختار یا نیمه ساختار یافته هستند، بنابراین چالشهایی منحصر به فرد برای بهرهبرداری و تحلیل آنها وجود دارد.
دادههای در دسترس عموم از حجم عظیمی از منابع داده باز مانند مرکز آمار ایران، data.gov دولت ایالات متحده و یا پورتال داده باز اتحادیه اروپا به دست میآیند.
سایر کلان دادهها که ممکن است از دریاچههای داده (Data Lake)، منابع دادههای ابری، تأمینکنندگان و مشتریان به دست آیند.
فناوریهای کلانداده
معماری کلان داده
همانند معماری در ساخت و ساز ساختمان، معماری کلانداده نیز طرحی برای ساختار اساسی نحوه مدیریت و تجزیه و تحلیل دادههای کسب و کارها ارائه میدهد. معماری کلانداده فرآیندهای لازم برای مدیریت کلان داده را در چهار “لایه” اساسی، از منابع داده، تا ذخیره سازیداده، سپس به تجزیه و تحلیل دادههای بزرگ و در نهایت لایه مصرف که در آن نتایج تجزیه و تحلیل انجام شده در قالب هوش تجاری ارائه میشود، ترسیم میکند.
کلانداده و Apache Hadoop
۱۰ سکه در یک جعبه بزرگ را با ۱۰۰ نیکل در نظر بگیرد. حال ۱۰ جعبه کوچکتر را در کنار هم، هر کدام با ۱۰ نیکل و فقط یک سکه تصویر کنید. در کدام سناریو تشخیص سکهها آسانتر خواهد بود؟
Hadoop اساساً بر اساس این اصل کار میکند و به عنوان یک چارچوب منبع باز برای مدیریت پردازش دادههای بزرگ توزیع شده در شبکهای از تعداد زیادی رایانههای متصل مورد استفاده قرار میگیرد. بنابراین به جای استفاده از یک کامپیوتر بزرگ برای ذخیره و پردازش تمام دادهها، Hadoop چندین کامپیوتر را در یک شبکه تقریبا بینهایت و مقیاسپذیر، خوشهبندی کرده و دادهها را به صورت موازی تجزیه و تحلیل میکند. این فرآیند معمولاً از یک مدل برنامهنویسی به نام MapReduce بهره میگیرد که پردازش کلانداده را با تجمیع رایانههای توزیع شده میسر میکند.
دریاچه داده، انبار داده و NoSQL
پایگاه دادههای سنتی به سبک صفحه گسترده SQL برای ذخیرهسازی دادههای ساختاریافته مناسب است. کلانداده ساختار نیافته و نیمه ساختاریافته به پارادایمهای ذخیرهسازی و پردازش متفاوتی نیاز دارد، زیرا ایندکسگذاری و یا طبقه بندی نشدهاند. دریاچههای داده، انبارهای داده و پایگاه های داده NoSQL همگی مخازن دادهای هستند که مجموعههای داده بدون ساختار و یا نیمهساختاری را مدیریت میکنند. دریاچه داده مجموعه وسیعی از دادههای خام است که هنوز پردازش نشده است. انبار داده مخزنی برای دادههایی است که قبلاً برای هدف خاصی پردازش شدهاند.
پایگاههای داده NoSQL طرحی انعطافپذیر ارائه میکنند که میتوانند متناسب با ماهیت دادههای مورد پردازش اصلاح شوند. هر یک از این سیستمها نقاط قوت و ضعف خود را دارند و بسیاری از کسب و کارها از ترکیبی از این مخازن دادهای مختلف استفاده میکنند تا به بهترین نحو با نیازهای خود مطابقت داشته باشند.
پایگاه داده In-memory
پایگاه دادههای سنتی مبتنی بر دیسک با در نظر گرفتن فناوریهای SQL و پایگاه داده رابطهای توسعه یافته اند. این نوع از پایگاه دادهها ممکن است بتوانند حجم زیادی از دادههای ساختاریافته را مدیریت کنند، اما برای ذخیره و پردازش دادههای بدون ساختار مناسب نیستند. برخلاف نیاز به بازیابی دادهها از یک سیستم مبتنی بر دیسک، در پایگاه دادههای In-memory، پردازش و تجزیه و تحلیل به طور کامل در RAM انجام میشود. پایگاههای داده درون حافظه نیز بر اساس معماریهای توزیع شده ساخته شدهاند. به عبارت دیگر، آنها میتوانند با استفاده از پردازش موازی، بر خلاف مدلهای پایگاه داده مبتنی بر دیسک تکگرهای، به سرعتهای بسیار بیشتری دست یابند.
کلان داده در رایانش ابری
پردازش کلانداده بر پایه رایانش ابری نقطه مقابل ذخیرهسازی محلی بر روی وسایل الکترونیکی با کامپیوترهاست. شرکتهای ارائه دهنده خدمات رایانش ابری مسئولیت سرورها، ذخیرهسازی، منابع محاسباتی، پایگاه داده، شبکه و نرمافزارها را برعهده میگیرند و شما تنها از طریق اینترنت میتوانید بنا به نیاز خود از این قابلیتها استفاده کنید بدون اینکه نگران جزئیات فنی آن باشید.
رایانش ابری توانسته یک تغییر اساسی در مصرف داده، ارائه خدمات و همکاری در سطح سازمانی ایجاد کند. سرویسهای ابری با ارائه مقرون به صرفه دسترسی سریعتر به دادهها، ذخیرهسازی تطبیقی، زیرساخت، پلتفرم، نرم افزار و منابع پردازشی، چابکی و کشش را به میزان قابل توجهی افزایش میدهد. میتوانید از رایانش ابری برای خودکارسازی بسیاری از این مؤلفهها در زمینه کلانداده نیز استفاده کنید.
این امر فرآیندها را ساده میکند و تلاشهای شما را سریعتر به نتیجه میرساند. معمولا سازمانهایی که در همان ابتدای استفاده از کلانداده سراغ رایانش ابری نمیروند، بعد از مدتی پشیمان خواهد شد زیرا با توجه به ماهیت حجم بالا و تولید سریع دادهها در کلانداده در بیشتر اوقات با محدودیتهای ذخیرهسازی و پردازشی مواجه میشوند.
کلاندادهها چگونه کار میکنند؟
پیش از آنکه هر کسبوکاری بتواند از فناوری بیگ دیتا به نحو احسن استفاده کند، لازم است نحوه جریان آن را در میان تعداد زیادی از مکانها، منابع، سیستمها، مالکان و کاربران بررسی کنند. به طور کلی سه مرحله کلیدی جهت بهرهمندی از قدرت بیگدیتا برای هر سازمان وجود دارد که به شرح زیر میباشد:
جمعآوری داده
همانطور که در قسمت «منابع اصلی دسترسی به کلانداده» اشاره شد؛ بسیاری از دادههای بزرگ از مجموعههای عظیمی از دادههای بدون ساختار تشکیل شده که از منابع متفاوت و متناقضی دریافت میشوند. پایگاه دادههای سنتی مبتنی بر دیسک و مکانیسمهای یکپارچهسازی دادهها به درستی نتوانستند با مدیریت این موضوع کنار بیایند. مدیریت کلانداده مستلزم اتخاذ راهحلهای پایگاه داده In-memory و راهحلهای نرمافزاری خاص برای کسب دادههای بزرگ است.
دسترسی، مدیریت و ذخیره کلاندادهها
سیستمهای محاسباتی مدرن سرعت، قدرت و انعطافپذیری لازم برای دسترسی سریع به مقادیر و انواع عظیم دادههای بزرگ را فراهم میکنند. در کنار دسترسی مطمئن، شرکتها همچنین به روشهایی برای یکپارچهسازی دادهها، ایجاد خطوط لوله داده، اطمینان از کیفیت دادهها، ارائه حاکمیت و ذخیرهسازی دادهها و آمادهسازی آنها برای تجزیه و تحلیل نیاز دارند. برخی از کلاندادهها ممکن است در محل در یک انبار داده سنتی ذخیره شوند. با این حال، بیگدیتا زمانی بهترین عملکرد را دارد که محدودیت اندازه و حافظه نداشته باشد، بنابراین میتوان به گزینههای انعطافپذیر و کمهزینهای برای ذخیره و مدیریت دادههای بزرگ از طریق راهحلهای ابری، دریاچههای داده، خطوط لوله داده و Hadoop روی آورد.
پردازش کلان داده
سازمانها با فناوریهایی با کارایی بالا مانند محاسبات شبکهای یا تجزیه و تحلیل درون حافظهای، میتوانند انتخاب کنند که از کل دادههای خود برای تجزیه و تحلیل استفاده کنند و یا قبل از تجزیه و تحلیل، مشخص کنند کدام دادهها برای هدف در پیش گرفتهاشان مناسب است. در هر صورت، تجزیه و تحلیل کلان داده نحوه کسب ارزش و بینش شرکتها از دادهها است. دادههای بزرگ به طور فزایندهای، فناوریهای تحلیلی پیشرفته امروزی مانند هوش مصنوعی (AI) و یادگیری ماشین را تغذیه میکنند.
چه سازمانها و ارگانهایی از بیگدیتا استفاده میکنند؟
باید این موضوع را قبول کنیم دیگر روشهای سنتی مدیریت کسب و کار همراه با سعی و خطای فراوان، پاسخگوی نیاز بازار رقابتی امروز نخواهد بود. با توجه به رشد روزافزون فناوریهای نوینی مانند کلاندادهها، هوش مصنوعی، اینترنت اشیا و غیره، انجام اشتباهات مکرر و عدم توجه به دادههای موجود در آن صنعت تنها میتواند آن کسب و کار را به منجلاب برشکستگی ببرد. بنابراین دادهها همچون سایر منابع یک سازمان باید در حفظ و مدیریت آنها کوشا بود.
اما همانطور که بارها به آن اشاره شد لزوما حجم مقدار داده جمعآوری شده نمیتواند به تنهایی مفید باشد، بلکه تجزیه و تحلیل آن است که بینشهای ارزشمند را به مدیران و صاحبان کسبوکارها ارائه میدهد. با اشاره به برخی از کاربردهای کلان داده در صنایع مختلف در بخش آتی متوجه خواهید شد، کلان داده برای هر نوع سازمانی صرف نظر از نوع فعالیتهایی که انجام میدهند، میتواند مفید و ارزشمند باشد.
کاربردهای کلان داده
کاربرد کلان داده در دیجیتال مارکتینگ
یکی از زمینههای که کلاندادهها اثرات ارزشمند خود را به اثبات رساندهاند، حوزه دیجیتال مارکتینگ و تجارت الکترونیک است. از جمله مزایایی ارزشمند کلاندادهها در این صنعت میتوان به موارد زیر اشاره کرد:
– طراحی کمپینهای بازاریابی بهتر بواسطه شناخت نیازهای مشتریان و هدفگذاری مناسب
– اتخاذ تصمیمات بهتر برای قیمتگذاری به دلیل تجزیه و تحلیل در لحظه بازار
– طراحی بهینه محتویات سایتها با توجه به مطالعه رفتار افراد در حین مراجعه به سایت
به بیان کلیتر، به کمک کلانداده میتوان مشتریان، نظرات و احساساتشان را شناخت و آنها را طبقهبندی نمود، ترندهای موجود در بازار را شناسایی کرد و عملکرد رقیبان در این زمینه را تجزیه و تحلیل کرد.
کلان داده در بانکداری
در مجله “Big Data”، یک مطالعه در سال ۲۰۲۰ اشاره کرده است که کلانداده نقش مهمی در تغییر بخش خدمات مالی، به ویژه در تجارت و سرمایهگذاری، اصلاحات مالیاتی، کشف و بررسی تقلب، تجزیه و تحلیل ریسک و اتوماسیون ایفا کردهاند. همچنین به کمک تجزیه و تحلیل دادههای مربوط به مشتریان و بازخوردهایشان میتوان به بینش ارزشمندی جهت بهبود رضایت و تجربه مشتری در صنعت مالی دست یافت.
از طرف دیگر، روزانه دادههای تراکنشی زیادی تولید میشوند که یکی از سریعترین و بزرگترین کلاندادهها را در جهان تشکیل میدهد. پذیرش روزافزون راهحلهای پیشرفته مدیریت کلاندادهها به بانکها و مؤسسات مالی کمک میکند که از این دادهها محافظت کنند و از آنها در راههایی استفاده کنند که هم از مشتری و هم از کسبوکار بتوانند به خوبی در مقابل راههای کلاهبرداری و تقلب محافظت نمایند.
کلان داده در پزشکی
تجزیه و تحلیل کلان داده به متخصصان حوزه پزشکی و سلامت اجازه میدهد تا تشخیصهای دقیقتر و مبتنی بر شواهد را انجام دهند. از طرف دیگر هر فرد میتواند با دریافت توصیههای پزشکی شخصیسازی شده از بروز و یا گسترش بیماری جلوگیری کند. بیگ دیتا به مدیران بیمارستانها نیز کمک میکند تا روندها را شناسایی کنند، خطرات را مدیریت کنند و هزینههای غیرضروری را به حداقل برسانند تا بتوانند بیشترین مقدار بودجه را به حوزههای مراقبت و تحقیق از بیمار هدایت کنند.
تمامی این موارد با استفاده از فناوریهای mHealth، eHealth، ابزارهای پوشیدنی میسر میگردد. کلاندادههای پزشکی شامل دادههای پرونده الکترونیکی سلامت، دادههای تصویربرداری، اطلاعات مربوط به هر بیمار و دادههای حسگر میباشند که در حال حاضر کنترل دقت، باورپذیری و مدیریت آنها از مهمترین چالشها در این زمینه محسوب میشود.
در بحبوحه همهگیری کرونا، دانشمندان در سراسر جهان به دنبال راههای بهتری برای درمان و مدیریت ویروس کووید ۱۹ بودهاند که کلاندادهها در این فرایند نقش بسزایی ایفا کرد. مقالهای در جولای ۲۰۲۰ در ژرونال The Scientist توضیح میدهد که چگونه تیمهای پزشکی قادر به همکاری و تجزیه و تحلیل دادههای بزرگ برای مبارزه با ویروس کرونا بودند: «ما روش انجام علم بالینی را تغییر دادهایم و از ابزارها، منابع کلان داده و علم دادهها به روشهایی استفاده کردیم که بیش از این ممکن نبود.»
کلان داده در سازمانهای دولتی
استفاده و پذیرش کلان داده در فرآیندهای دولتی عملکرد را از نظر هزینه، بهرهوری و نوآوری به میزان قابل توجهی افزایش میدهد، اما بدون نقص نیست. تجزیه و تحلیل دادهها اغلب به بخشهای متعدد دولت (مرکزی و محلی) نیاز دارند تا با همکاری یکدیگر کار کنند و فرآیندهای جدید و نوآورانهای را برای ارائه نتیجه مطلوب ایجاد کنند.
یک سازمان دولتی رایج که از دادههای بزرگ استفاده میکند، وزارت اطلاعات است که فعالیتهای اینترنت را بهطور مداوم بر اساس الگوهای بالقوه فعالیتهای مشکوک یا غیرقانونی، رصد میکند. سازمان مدیریت بحران نمونه دیگری است که با دریافت اطلاعات از منابع مختلف و تجزیه و تحلیل آنها میتواند خدمترسانی به مردم آسبدیده را بهبود بخشد و فرایند اطلاعرسانی را تسریع ببخشد.
کاربرد کلانداده در آموزش
کلانداده در زمینه آموزش به عنوان بستری برای آموزش و تربیت نسلهای آینده توانسته بسیار مثمرثمر واقع شود. یکی از اثربخشترین تأثیرات این فناوری، فراهم نمودن آموزش شخصیسازی شده برای محصلین بوده که با جمعآوری دادههای مربوط به هر فرد و تجزیه و تحلیل آن میتوان الگوی مناسب یادگیری را برای آن شخص پیدا نمود. این امر باعث شکوفایی استعدادها، پویایی محیط آموزش و جلوگیری از دلزدگی و ناامیدی شده است.
در طول همهگیری کرونا، تأثیر استفاده از کلانداده بسیار ملموستر از گذشته به چشم آمد. در این دوران، موسسات آموزشی در سراسر جهان مجبور شدند برنامههای درسی و روشهای آموزشی خود را برای حمایت از یادگیری از راه دور ابداع کنند. یکی از چالشهای اصلی این فرآیند، یافتن راههای قابل اعتماد برای تحلیل و ارزیابی عملکرد دانشآموزان و اثربخشی کلی روشهای تدریس آنلاین بود.
مقالهای در سال ۲۰۲۰ در مورد تأثیر کلان داده بر آموزش و یادگیری آنلاین بیان کرده که کلان داده باعث شد، سیستمهای آموزشی بتوانند در شخصیسازی آموزش و توسعه یادگیری تطبیقی، تغییر سیستمهای ارزیابی و ترویج یادگیری مادام العمر، اعتماد به نفس بیشتری داشته باشند.
آموزش کلان داده
کلان داده زمینه وسیعی است و برای کسانی که میخواهند کسب مهارت و تخصص در این حوزه را آغاز کنند ممکن است اندکی طاقتفرسا باشد. البته لازم به ذکر است که نقشهایی که در این حوزه نیز مطرح میشوند نیز بسیار مهم هستند که به طور کلی به دو نقش اصلی مهندس داده و تحلیلگر داده تقسیمبندی میشوند. این دو حوزه به هم وابسته ولی از یکدیگر متمایز هستند.
مهندسی کلان داده حول طراحی، استقرار، کسب و نگهداری (ذخیره) حجم زیادی از دادهها میچرخد. در حالی که تحلیلگران دادههای بزرگ حول مفهوم استفاده و پردازش مقادیر زیادی داده تمرکز دارند. تجزیه و تحلیل دادههای بزرگ شامل تجزیه و تحلیل روندها، الگوها و توسعه سیستمهای طبقهبندی و پیشبینی است. بنابراین، به طور خلاصه، تحلیلگر کلانداده به محاسبات پیشرفته بر روی دادهها میپردازد، در حالی که مهندسی کلانداده بر روی طراحی و استقرار سیستمها و تنظیماتی تمرکز میکند که محاسبات باید درون آنها انجام شود.
به طور کلی پنج موضوع اصلی لازم است جهت آموزش کلان داده به ویژه برای مهندسین کلانداده مورد مطالعه قرار گیرد:
آشنایی با مفاهیم کلانداده، انواع پایگاه داده (رابطهای، NoSQL و غیره) و سیستمهای ذخیرهسازی توزیع شده
انواع پردازشها اعم از توزیع شده و موازی
آشنایی با نحوه کار و تسلط بر اکوسیستم Hadoop
پردازش با پردازش و تحلیل دادهها توسط Spark
آشنایی با کلان داده در رایانش ابری
در این راستا دورههای آموزشی و کتابهای زیادی در این زمینه وجود دارد که در ادامه به برخی از آنها اشاره میگردد:
کتابهای حوزه کلان داده
– کتاب “Big Data: A Revolution That Will Transform How We Live, Work, and Think” نوشته V. Mayer-Schönberger و K. Cukier و منتشر شده در سال ۲۰۱۴
– کتاب “”Hadoop: The Definitive Guide نوشته Tom White و منتشر شده در سال ۲۰۰۹
– کتاب”Python for Data Analysis: Data Wrangling with Pandas, NumPy, and IPython” نوشته W. McKinney و منتشر شده در سال ۲۰۱۱
– کتاب ” Practical Data Science with R” نوشته N. Zumel و J. Mount و منتشر شده در سال ۲۰۱۴
آینده کلان داده
کلان داده با قابلیتهای گستردهای که میتواند برای یک کسب و کار ایجاد نماید خود را تبدیل به یکی از منابع بسیار با ارزش کرده که استفاده بهینه از آن برای ادامه حیات هر سازمانی در این عرصه رقابتی امروز ضروری است. سازمانها به کمک فناوری کلانداده میتوانند از گذشته درس بگیرند، و رفتارهای آینده مشتریان خود را پیشبینی کنند. همچنین به کمک این فناوری میتوان به گسترش دانش در زمینههای مختلف بسیار امیدوار بود. اما با وجود مزایای بیشماری که کلان دادهها میتوانند برای سازمانها داشته باشند، چالشهایی را نیز به همراه دارند.
امنیت دادهها یکی از هراسهای اخلاقی است که هر سازمان را ممکن است در استفاده از کلانداده دچار مشکل نماید. دادههای جمعآوری شده در کلانداده به مرور تبدیل به یکی از هویتهای اصلی آن سازمان میشوند که به همان میزانی که میتوانند سودآور باشند، اگر در معرض حملات سایبری قرار گیرند به همان میزان و یا شاید بیشتر میتوانند آسیبرسان باشند.
همچنین با توجه به رشد نمایی این دادهها، به خصوص دادههای ساختار نیافته؛ جهت ذخیره، پردازش و مدیریت آنها نیاز به سختافزارها و نرمافزارهای قویتر از آنچه که امروز وجود دارد، حس میشود. در حال حاضر دانشمندان داده ۵۰ تا ۸۰ درصد از زمان خود را صرف نگهداری و آمادهسازی داده ها پیش از استفاده میکنند که مقدار قابل توجهی است. میتوان خیلی خلاصه گفت که همگام بودن با فناوری کلانداده، خود یک چالش مداوم است!
https://dr-baradaran.ir/wp-content/uploads/2023/09/big-data-cloud-based-solution.png542812ادمینhttps://dr-baradaran.ir/wp-content/uploads/2023/09/یادگیری-سرآغاز-آگاهیست-300x92.pngادمین2023-09-11 09:49:092023-09-11 09:49:09کلان داده و دانستنیهای آن
با شتابی که هوش مصنوعی دارد پیشرفت میکند و رد پایش در جایجای زندگی و کارمان پیداست، در آیندهای نهچندان دور بخش مهمی از زندگی ما را در بر خواهد گرفت. روزی میرسد که هوش ماشینی علاوه بر اینکه به ما پیشنهاد میکند چه آهنگی گوش کنیم یا چه رنگ لباسی به پوستمان میآید، بهجای پزشک و قاضی و پلیس هم تصمیمگیری خواهد کرد. اما هوش مصنوعی چیست؟ تاریخچه پیدایش این فناوری، کاربردهای هوش مصنوعی و وضعیت کسبوکار آن در جهان و ایران چگونه است؟ و نمونه های جدید هوش مصنوعی مانند ChatGPT و bard چه کاربردی دارند؟ در ادامه به این سوالات پاسخ داده شده است.
هوش مصنوعی چیست؟
بیراه نیست اگر بگوییم تصور عمومی از هوش مصنوعی با تصویر رباتها گره خورده است. این تصور بیش از همه حاصل فیلمها و انیمیشنهای علمی-تخیلی است. گرچه این تصور رگههایی از واقعیت هوش مصنوعی را در خود دارد، اما تعریف دقیقی از این علم نیست.
در واقع ما امروز برای رسیدن به آن چیزی که در فیلمها و سریالهای هالیوودی میبینیم راه بسیاری در پیش داریم. البته عجیب نیست که غیرمتخصصان از این حوزه تصور درستی نداشته باشند، جالب است بدانید که نظرسنجیها نشان میدهد حتی رهبران کسبوکارهای بزرگ نیز درک جامعی از وضعیت AI ندارند.
با این توضیحات طبیعتاً ارائه دادن تعریفی واحد از هوش مصنوعی، که مورد قبول همهی دانشمندان این حوزه باشد، کار دشواری است. شاید بهترین کار برای آسان کردن درک معنی هوش مصنوعی این است که بحث را از کاربردها و شاخههای AI شروع کنیم.
هوش مصنوعی به زبان ساده
بههرحال، اگر دوست دارید در آغاز تعریفی، هر چند کلی، از هوش مصنوعی، هوشواره یا هوش ماشینی و هوش مصنوعی به زبان انگلیسی artificial intelligence (AI) ، smart mind یا fake mind داشته باشید، احتمالاً این تعریف بتواند تصویری کلی از این حوزه را برایتان بسازد: «هوش مصنوعی شاخهای گسترده از علوم کامپیوتر است که ماشینهای هوشمندی میسازد که از رفتارهای انسانی تقلید میکنند».
در واقع، این ماشینها تصمیماتی میگیرند که معمولاً نیازمند سطحی از تجربهی انسانی است. و به انسانها کمک میکند تا مشکلات احتمالی را پیشبینی کند و بر آنها فائق آید.
نقطهی قوت خاص هوش انسان انطباقپذیری آن است. ما ظرفیت آن را داریم که با وضعیتهای گوناگون محیطمان کنار بیابیم و رفتارمان را از با استفاده از یادگیری تغییر دهیم. تلاش برای دادن این ویژگی به ماشینها منجر به شکلگیری شاخهای به نام یادگیری ماشین در Ai شده است. بهزعم بسیاری از متخصصان، این حوزه مهمترین زیرشاخهی AI است. البته خود یادگیری ماشین هم زیرشاخههایی دارد که مهمترینشان یادگیری عمیق است.
«فیزیکدان و مدیر تحقیقات ریاضیات کاربردی میگوید: هوش مصنوعی این توانایی را دارد که خود را خاموش و اقدام به بازطراحی قدرتمندتری از خود کند. اما در نقطه مقابل تکامل بیولوژیکی انسانها قرار دارد که با سرعت کمی همراه است و نمیتواند با هوش مصنوعی به رقابت بپردازد. اما مردم از این موضوع اطلاع ندارند. در حالی که در کوتاهمدت تأثیر هوش مصنوعی به کنترلی بستگی دارد که روی آن اعمال میشود. در درازمدت تأثیر آن به این موضوع بستگی دارد که آیا اصلاً قابل کنترل خواهد بود یا نه؟»
استیون هاوکینگ | Stephen Hawking
تصویر زیر درک بهتری از توضیحات پاراگراف قبلی بهدست میدهد. یادگیری ماشین و یادگیری عمیق شباهتها و تفاوتهایی با هم دارند. شباهت این دو بخش آنجایی است که هر دو از الگوریتمها استفاده میکنند تا ماشینهایی با کارکردهای ویژه طراحی کنند که نیازی به دخالت عامل انسانی نداشته باشند. اما مهمترین تفاوت یادگیری عمیق و یادگیری ماشین این است که در یادگیری عمیق الگوریتمها لایههای بیشتری دارند و پیچیدهترند.
با بررسی سازوکارهای مغز میتوانیم سر از کار سیستمهای هوشمند دربیاوریم و آنها را در کامپیوتر شبیهسازی کنیم. بنابراین، AI برنامهای است که از هوش انسانی الهام گرفته است و روی ماشینها پیادهسازی میشود. به این ترتیب ماشین میتواند همان کارهایی را که یک انسان انجام میدهد را در زمانی کوتاهتر و با دقتی بیشتر انجام دهد.
برنامهها اغلب روی سیستمهای کامپیوتری پیادهسازی میشوند و بهواسطهی این برنامه، کامپیوتر میتواند درمورد مسائلی که در اختیارش قرار میدهند تصمیم بگیرد، برنامهریزی کند یا نتیجه را پیشبینی کند.
داستان شروع و تاریخچه هوش مصنوعی
ایدهی خلق موجودات هوشمندی که بتوانند کارهای انسان را انجام دهند، به اسطورهها برمیگردد. انسان از وقتی که میتوانسته خیالپردازی کند، همیشه بهدنبال خلق کردن موجوداتی بوده که تحت فرمان او باشند و دستوراتش را اجرا کنند. البته که ساخت چنین موجودی به همین سادگیها نیست و هنوز که هنوز است بشر موفق به ساخت آن نشده و فعلاً در حد همان خیالپردازیهای فیلمهای علمی – تخیلی مانده است.
نخستین گامها در ساخت ماشین به جا انسان
اولین تلاش انسان برای ساخت ماشینی که بهجای انسان کار کند و تصمیم بگیرد، به حدود قرن ۱۷ بازمیگردد. چند قرن بعد، در دههی ۱۹۳۰ کورت گودل، آلونسو چرچ و آلن تورینگ بنیادهای اساسی منطق و نظریهی علم کامپیوتر را بنا نهادند.
در جنگ جهانی دوم، تصمیمگیری و محاسبات سریع برای شکستن پیامهای رمزی دشمن، بهقدری مهم شد که آلن تورینگ (پدر هوش مصنوعی جهان) ساخت ماشین رمزشکن را آغاز کرد. داستان اختراع ماشینها با قابلیتهای مختلف، دستمایهی ساخت فیلمهای علمی – تخیلی زیادی شده است، همچنین که داستان ساخت اولین ماشین توسط آلن تورینگ، موضوع یکی از همین فیلمهاست.
آلن تورینگ آزمونی برای سنجش هوشمندی ماشینها طراحی کرد که به آزمون تورینگ مشهور است. از نظر تورینگ هر ماشینی که بتواند از پس این آزمون بربیاید هوشمند است.
تاریخچه هوش مصنوعی در ایران
اختراع ماشین تورینگ در خلال جنگ جهانی دوم باعث شد تا سفری بدون انتها آغاز شود. مقصود توسعه روزافزون هوش مصنوعی، تفکر پیوسته بشر پیرامون آن و انباشت هر چه بیشتر دانش و تجربه آدمی در این باره است که «چگونه ماشینها میتوانند همچون آدمی بفهمند و عمل کنند؟». در واقع هسته مرکزی انگیزش تحقیق و توسعه در هوش مصنوعی همین پرسش است. این پرسش نیرویی در درون خود دارد و در دهههای گذشته سبب جنبوجوش عظیمی در دانشمندان و متخصصین علوم اعصاب و مهندسین کامپیوتر گردیده است.
بنابراین از تولد AI، زمان زیادی نمیگذرد. بر همین مبنا این رشته از اوایل دهه ۸۰ شمسی به کشورمان وارد شد. سپس در کشورمان متخصصین بسیاری به کاوشهای نظری درباره آن پرداختند، به نحوی که بر اساس حجم تولیدات علمی که داشتهایم، به رتبه ۱۳ جهان در زمینه نظریهپردازی Artificial Intelligence دست یافتیم. در ایران زندهیاد، دکتر کارو لوکاس که در سال ۱۳۲۸ در اصفهان دیده به جهان گشود، پیشگام معرفی و توسعه رشته هوشمصنوعی و رباتیک در کشورمان بود. ایشان به جهت فعالیتهای بسیار در رشتههای مختلف علوم محض نظیر محاسبات، ریاضیات، احتمالات و علوم مهندسی نظیر رباتیک، موردتوجه محافل علمی جهان واقع شده بود. دکتر لوکاس از سال ۱۳۸۱ برای تدریس رشته رباتیک و AI، پس از سالها فعالیت علمی در غرب، در دانشگاه تهران برنامههای علمی خود را آغازکرد.
اما اگرچه تولیدات علمی و نظری هوش ماشینی در کشورمان گذشته کوتاهی داشته و بهواقع تاریخچه هوش مصنوعی در ایران عمر چندانی ندارد، اما بر اساس تولیدات و مستندات علمی عمیقی که از سوی دانشمندان علاقهمند ایرانی ایجاد شد، بدون تردید میتوان آیندهای درخشان را برای این رشته از علم در ایران متصور بود.
سطوح سه گانه و انواع هوش مصنوعی
1. هوش ماشینی محدود یا ضعیف |weak Artificial Intelligence
به سیستمهای هوش مصنوعی اشاره دارد که برای انجام دادن کاری خاص و محدود طراحی شدهاند. این نوع از AI را میتوانیم در برخی از نرمافزاهایی که روزانه استفاده میکنیم ببینیم. مثلاً نرمافزاهای پیشبینی وضعیت آبوهوا یا نرمافزار بازی شطرنج.ضعیف بر مجموعهدادهای خاص و مشخص متکی است، به همین خاطر نمیتوان از آن برای وظایف دیگری خارج از همان مجموعهداده استفاده کرد.
هوش مصنوعی ضعیف، برخلاف هوش مصنوعی قوی، با اینکه در نگاه اول پیچیده به نظر میرسد، خودآگاه نیست و در شرایطی از پیش تعیینشده عمل میکند. همهی ماشینهای هوشمندی که امروز ما به نوعی از آنها استفاده میکنیم در همین نوع AI قرار میگیرند Google Assistant ،Google Translate, Siri و دیگر ابزارهای متکی به پردازش زبان طبیعی مثالهایی از AI ضعیفاند. شاید بهزعم بسیاری ابزارهایی که نام بردیم چندان هم «ضعیف» نباشند، اما دلیل «ضعیف» نامیدن این ابزارها این است که راه بسیاری دارند تا از هوشی شبیه به هوش انسانی برخوردار شوند. به عبارت دقیقتر، این ابزارها نمیتوانند بهصورت خودبسنده و مستقل بیندیشند.
بااینحال، هیچیک از چیزهایی که گفتیم به معنای کمارزش بودن فناوری Ai ضعیف نیست. این بخش از AI نمودی است از خلاقیت و هوش ما انسانها.
برخلاف هوش مصنوعی ضعیف، این نوع از AI محدود به وظیفهی خاصی نیست و از پس طیف وسیعی از کارها برمیآید. در واقع، هوش مصنوعی قوی به ماشینهایی اشاره دارد که نوعی از هوش انسانی را میتوان در آنها دید. به عبارت دیگر، AI قوی از پس هر کاری که انسانها انجام میدهند برمیآید. نمونههای کامل از این ماشینها را میتوان در فیلمها و رمانهای علمی-تخیلی دید؛ آنجا که رباتها بیهیچ نیازی به انسان کارهای خود را انجام میدهند. این رباتها آگاهی دارند و احساسات را نیز درک میکنند.
3. فراهوش مصنوعی | Superintelligence
به ماشینهای اشاره دارد که از سطح هوش انسانی گذشتهاند و دیگر محدودیتهای هوش انسانی را ندارند. این گونه از AI، شاید همانی باشد که بسیاری را نگران آیندهی استفاده از این فناوریها کرده است.
برخی از مفاهیم مربوط به حوزههای هوش مصنوعی
اگر بهدنبال کلیدواژههایی برای جستوجوی بیشتر در حوزهی AI میگردید میتوانید از مفاهیم زیر استفاده کنید:
بینایی ماشین | Machine vision
فناوری است که میکوشد نوعی از بینایی را برای ماشین فراهم آورد. بینایی ماشین در فرایندهای گوناگون صنعتی از تشخیص چهره، تحلیل ویدیو، ocr و تشخیص اشیا تا تشخیص الگو استفاده میشود.
از این فناوری در خودروهای خودران نیز استفاده میشود. با اینکه شرکتهای زیادی در تلاشند تا خودروهایی بسازند که نیازی به رانندگی انسانها نداشته باشد، این حوزه بیشتر با نام شرکت تسلا و خودروهای آن گره خورده است.
علیرغم نوپا بودن هوش مصنوعی و بینایی ماشین در ایران، شرکتهای فعال در حوزه بینایی ماشین در ایران تعدادشان امیدوارکننده است و نویدبخش آیندهای روشنتر در این حوزه است.
پردازش گفتار | Speech processing
برای اینکه با مباحث و فناوریهای این حوزه در حد عناوین آشنا شوید بد نیست به چند مورد از فناوریهای مهم این شاخه از AI اشاره کنیم: حوزههای پردازش گفتار مانند سیستم تشخیص گفتار، سنتز گفتار، شناسایی گوینده، چت بات، تحلیل معنایی متون، تحلیل احساسات، جستوجوگر معنایی.
سیستمهای پردازش گفتار در کنار NLP این امکان را برای ماشینهای هوشمندی، چون اسمارتفونها، فراهم میکنند که از طریق زبان گفتاری با کاربران ارتباط برقرار کنند. احتمالاً معروفترین تکنولوژی بازشناسی گفتار که اسمش را شنیدهاید،Siri ، محصول اپل باشد.
Siri میکروفونهایی برای تشخیص صدا دارد و از بازشناسی گفتار خودکار برای تبدیل صدا به متن استفاده میکند. البته این دو مراحل ابتدایی هستند که در Siri انجام میشود و تا کامل شدن فرایند چند مرحلهی دیگر در این ابزار طی میشود. مانند بینایی ماشین، شرکتهای فعال در حوزه پردازش گفتار در ایران نیز در حال پا گرفتن هستند و هر روز بر تعدادشان افزوده میشود.
دادهکاوی | Data Mining
همانطور که از نامش نیز مشخص است به حوزهی تحلیل دادهها،بهویژه دادههای کلان، مربوط است. در واقع، در داده کاوی تلاش میشود کار مربوط به استخراج الگو از دادهها را به ماشینها سپرد. با همین توضیح کوتاه هم میشود دانست که دادهکاوی چقدر میتواند مهم باشد، چرا که الگوهای استخراج شده از دادههای کسبوکارها میتواند اطلاعات بسیاری مفیدی برای برنامههای آتی شرکتها فراهم آورد.
این شاخه از AI، ترکیبی از ابزارهایی آماری و هوش مصنوعی با مدیریت مجموعهدادههاست. داده کاوی معمولاً در کسبوکار(بیمه، بانکداری و…)، پژوهشهای علمی(نجوم و پزشکی) و مسائل مربوط به امنیت(تشخیص مجرمان و تروریستها) کاربردهای گستردهای دارد.
البته اهمیت یافتن مجموعهدادهها مسائل و مشکلاتی را نیز پدید آورده است. برای نمونه، حفظ اطلاعات شخصی کاربران در مجموعهدادههای بزرگ بیش از گذشته پر رنگتر شده و چالشهایی برای نگهداری از این دادهها پیش آمده است. بهخاطر کاربردهای بسیار دادهکاوی و نیازی که در این حوزه احساس میشود بر تعداد شرکتهای داده کاوی در ایران روزبهروز افزوده میشود.
پردازش زبان طبیعی | NLP
پردازش زبان طبیعی آموزش زبان انسانی به ماشینهاست. این بخش از AI جایی است که زبان طبیعی و زبانهای مصنوعی (مانند زبانهای برنامهنویسی) با هم پیوند میخورند. تلاشها برای پردازش زبان با کمک کامپیوترها به نسبت بسیاری از شاخههای هوش مصنوعی عمر طولانیتری دارد.
در پردازش زبان طبیعی نیاز به مجموعهدادههای زبانی داریم تا بتوانیم پردازش را روی آنها انجام دهیم. مفهوم پیکره زادهی همین نیاز است. میتوانید با جستوجوی این مفهوم چند پیکرهی مشهور انگلیسی را ببینید. اگر کنجکاوید بدانید که چگونه روی این پیکرهها پردازش انجام میشود باید سراغ مفاهیم تخصصیتر بروید. برای مثال در پایتون میتوانید کتابخانهی NLTK را فرابخوانید. این کتابخانه امکانات بسیار خوبی برای پردازش زبان طبیعی در اختیارتان میگذارد. شرکتهای فعال در حوزه پردازش زبان طبیعی در ایران میکوشند ابزارهای پردازش زبان طبیعی را بومیسازی و روی زبان فارسی پیاده کنند.
یادگیری ماشین | Machine Learning
یادگیری ماشین و مفاهیم مربوط به آن، از زیرشاخههای هوش مصنوعی هستند که به توانایی یادگیری ماشینها مربوط میشود؛ درواقع ماشینها قادرند به صورت خودکار به یادگیری و پیشرفت بپردازند بدون اینکه از قبل برای یادگیری آنها برنامهنویسی صورت گرفته باشد. بنابراین ماشینها در مکانهای مختلف قادر به کار با دادهها هستند و میتوانند با دادههای دریافت شده به ارتقای یادگیری خود بپردازند؛ یادگیری ماشین یادگیری اتوماتیک کامپیوترهاست و هدف از آن، این است که کامپیوترها در اثر کار با دادهها به الگوهای جدیدی دست پیدا کنند و تصمیمات بهتری بگیرند. از یادگیری ماشینی اکنون در هر صنعت و شغلی استفاده میشود.
یادگیری تقویتی | Reinforcement Learning
بهبود عملکرد ماشینها با یادگیری تقویتی ممکن میشود؛ یادگیری تقویتی نوعی یادگیری ماشینی است که استفاده از هوش مصنوعی را در برنامههای پیچیده از بازیهای ویدیویی تا روباتیک خود امکانپذیر میسازد. برخی از وظایف رانندگی خودمختار که در آن یادگیری تقویتی میتواند اعمال شود عبارتند از بهینهسازی مسیر، برنامهریزی حرکت، مسیریابی پویا، بهینهسازی کنترلکننده و سیاستهای یادگیری مبتنی بر اطلاع از وضعیت بزرگراهها.
یادگیری بانظارت، بینظارت، نیمهنظارت
یادگیری ماشینی خود به چند دسته یادگیری با نظارت، بینظارت، نیمهنظارت تقسیم شده است. هدف یادگیری بانظارت، میتواند با استفاده از آنچه که در گذشته آموخته و دادههای جدید به نتایج نوینی برسد و مجموعه دادههای آموزشی را آنالیز کند.
یادگیری نیمهنظارت از دادههای برچسب زده شده و برچسب نزده برای آموزش، استفاده میکند؛ این نوع یادگیری میتواند دقت یادگیری را افزایش دهد. یادگیری بینظارت به استفاده از الگوریتمهای هوش مصنوعی برای شناسایی الگوهایی در مجموعههای داده، حاوی نقاط دادهای که نه طبقهبندی شده و نه برچسبگذاری شدهاند، اشاره دارد. بنابراین الگوریتمها اجازه دارند تا نقاط داده موجود در مجموعههای داده را طبقهبندی، برچسبگذاری و یا گروهبندی کنند، بدون اینکه هیچ راهنمایی خارجی در انجام آن کار داشته باشند. به عبارت دیگر، یادگیری بینظارت به سیستم اجازه میدهد تا الگوهای درون مجموعه دادهها را به تنهایی شناسایی کند.
«شبکه عصبی» موجب شناخت الگوهای مغز انسان
شناخت الگوهای مغز انسان با شبکه عصبی ممکن میشود؛ مغز انسان تمامی فرایندهای خودآگاه و ناخودآگاه در بدن انسان را کنترل میکند با این وجود دانشمندان ثابت کردهاند کامپیوترها با سرعتی بسیار بالاتر از مغز میتوانند به فعالیت بپردازند. شبکه عصبی رفتار مغز انسان را منعکس میکنند و به برنامههای رایانهای اجازه میدهند الگوها را تشخیص دهند و مشکلات رایج در زمینههای هوش مصنوعی، یادگیری ماشینی و یادگیری عمیق را حل کنند. شبکههای عصبی که با نامهای شبکه عصبی مصنوعی (ANN) یا شبکه عصبی شبیهسازی شده (SNN) نیز شناخته میشوند، زیرمجموعهای از یادگیری ماشین هستند و در قلب الگوریتمهای یادگیری عمیق قرار دارند. نام و ساختار آنها از مغز انسان الهام گرفته شده است و از روشی که نورونهای بیولوژیکی به یکدیگر سیگنال میدهند، تقلید میکند.
موتور استنتاج سیستم خبره
موتور استنتاج سیستم خبره بخشی از سیستم است که قوانین منطقی را برای استنباط اطلاعات جدید در پایگاه دانش اعمال می کند. اولین موتورهای استنتاج، اجزای سیستم های خبره بودند. سیستم خبره معمولی شامل یک پایگاه دانش و یک موتور استنتاج بود. موتور استنتاج سیستم خبره برای حل مسائل پیچیده و ارائه توانایی تصمیمگیری مانند یک متخصص انسانی طراحی شده است و این کار را با استخراج اطلاعات و قوانین لازم از پایگاه دانش خود با استفاده از قواعد استدلال و استنتاج با توجه به پرسشهای کاربر انجام میدهد.
الگوریتم ژنتیک در خدمت بهینه سازی ساختار نسلها
از الگوریتم ژنتیک در خدمت بهینهسازی ساختار نسلها با اصلاح ژنتیک استفاده میشود؛ الگوریتم ژنتیک یک جستجوی اکتشافی است که از نظریه تکامل طبیعی چارلز داروین الهام گرفته شده است. این الگوریتم فرآیند انتخاب طبیعی را منعکس میکند که در آن بهترین افراد برای تولید مثل انتخاب میشوند تا فرزندان نسل بعدی به وجود بیایند. الگوریتم ژنتیک در خدمت بهینهسازی ساختار نسلها قرار گرفته تا فرایند تکامل طبیعی را شبیهسازی کند. فرایندهایی که بر اساس انجام عملیات روی کروموزومها شکل گرفتهاند.
چهار دسته اصلی سیستم هوش مصنوعی
با چهار گروه اصلی سیستم هوش مصنوعی، مراحل تکامل این فناوری پیموده میشود؛ هوش مصنوعی (AI) به طور کلی به هر رفتاری شبیه انسان که توسط یک ماشین یا سیستم انجام میشود، اشاره دارد. در ابتداییترین شکل هوش مصنوعی، رایانهها به گونهای برنامهریزی شدهاند که با استفاده از دادههای گسترده از نمونه رفتارهای مشابه، رفتار انسان را «تقلید» کنند. این رفتار میتواند از تشخیص تفاوت بین یک گربه و یک پرنده تا انجام فعالیتهای پیچیده در یک مرکز تولیدی، متغیر باشد. با هوش مصنوعی، ماشینها میتوانند به طور مؤثر کار کنند و حجم وسیعی از دادهها را در یک چشم به هم زدن تجزیه و تحلیل کنند و مشکلات را از طریق یادگیری بانظارت، بینظارت یا نیمهنظارت حل کنند.
۱ـ «ماشینهای واکنشی»، ابتدایی ترین نوع هوش مصنوعی
چهار دسته اصلی سیستم هوش مصنوعی، هر یک بخشی از این فناوری را پیش میبرند؛ ماشین واکنشی، ابتداییترین نوع هوش مصنوعی است که صرفاً به سناریوهای فعلی واکنش نشان میدهد و نمیتواند برای تصمیمگیری در زمان حال به دادههای آموزش داده شده یا تکراری تکیه کند. ماشینهای واکنشی نقشهها و دیگر اشکال برنامهریزی از پیش موجود را به طور کامل حذف میکنند و بر مشاهدات زنده از محیط تمرکز میکنند؛ وظایف خاصی به آنها داده میشود و تواناییهایی فراتر از این وظایف ندارند.
بهعنوان نمونهای از این ماشینها، میتوان از برنامه شطرنجی نام برد که در دهه ۱۹۹۰ در مسابقه با گاری کاسپاروف، قهرمان شطرنج جهان پیروز شد. با این وجود این برنامه نمیتواند حافظه داشته باشد، حرکتهای قبلی خود را به یاد بسپارد و از آنها استفاده کند. ماشینهای واکنشی ابتداییترین نوع هوش مصنوعی محسوب میشوند که برای هدفهای محدودی قابل استفاده هستند و در موقعیتهای مختلف نمیتوانند پاسخگو باشند.
۲ـ «حافظه محدود» با قدرت تصمیمگیری
یکی از چهار دسته اصلی هوش مصنوعی، حافظه محدود است؛ حافظه محدود شامل مدلهای یادگیری ماشینی است که دانش را از اطلاعات، حقایق، دادههای ذخیرهشده یا رویدادهای قبلاً آموختهشده استخراج میکند. بر خلاف ماشینهای واکنشی، حافظه محدود میتواند با تجزیه و تحلیل اقدامات یا دادههای مربوط به آنها با هدف ایجاد دانش آزمایشی، از گذشته یاد بگیرد. این نوع هوش مصنوعی توسط دستیارهای صوتی ـ مجازی، روباتهای گفتگو، ماشینهای خودران و چندین فناوری دیگر استفاده میشود. بهعنوان نمونه برخی از تصمیمگیریهای ماشینهای خودران، قدرت تصمیمگیری در حافظه محدود را نشان میدهند. مثلاً این ماشینها میتوانند خطی را که در آن مشغول رانندگی هستند، عوض کنند؛ البته اطلاعات در حافظه محدود برای همیشه ذخیره نمیشوند و این میتواند ضعف این سیستم محسوب شود.
۳ـ «نظریه ذهن» با توانایی سنجش افکار
نظریه ذهن نیز جزو چهار دسته اصلی هوش مصنوعی، محسوب میشود؛ نظریه ذهن با توانایی سنجش افکار میسر میشود؛ این نظریه شاخهای از علوم شناختی است که به بررسی این موضوع میپردازد که چگونه حالات ذهنی را به افراد دیگر نسبت میدهیم و چگونه از حالات نسبت داده شده، برای توضیح و پیشبینی اعمال آن افراد دیگر استفاده میکنیم. به طور دقیقتر، این شاخهای است که تواناییهای ذهنخوانی را بررسی میکند. هماکنون از این دسته از هوش مصنوعی، برای افکارسنجی در حوزههای سیاسی و اجتماعی بهره گرفته میشود. توانایی سنجش افکار با نظریه ذهن میتواند منجر به شناخت سلایق مخاطب در امور مختلف شود.
۴ـ «هوش مصنوعی خودآگاه» با توانایی شهود و همدلی
هوش مصنوعی خودآگاه با توانایی شهود و همدلی میتواند عالیترین سطحی باشد که سیستم قادر است، به آن برسد؛ برای پیشرفت هوش مصنوعی به سمت کارهای پیچیدهتر که نیاز به شهود و همدلی دارند، باید قابلیتهایی مانند فرااندیشه، خلاقیت و همدلی مشابه خودآگاهی یا آگاهی انسان در آن توسعه داده شود. چنین تغییر پارادایمی تنها از طریق یک تغییر اساسی در وضعیت هوش مصنوعی به سمت آگاهی امکانپذیر است، تغییری مشابه آنچه برای انسانها از طریق فرآیند انتخاب طبیعی و تکامل رخ داده است. هوش مصنوعی خودآگاه میتوانند بفهمد در چه سطحی قرار دهد و احساسات دیگران را نیز با توجه به اطلاعاتی که از آنها به دست میآورد درک میکند و قادر به همدلی خواهد بود.
کاربردهای هوش مصنوعی
با اینکه هوشمصنوعی تازه در ابتدای راه قرار دارد و چند دهه بیشتر نیست که نمودهایش در زندگی روزمره روبهگسترش گذاشته، اما همین حالا هم میتوان در بخشهای مختلف اقتصادی و علمی ردپایش را دید.
تصمیمگیریهای AI بر اساس الگوریتمهایی است که قابلیت درک شرایط را دارند و مانند انسان توان استدلال و حل مسئله دارند. بنابراین هوش مصنوعی میتواند در زمینهی دانشهای متفاوتی مانند فلسفه، زبانشناسی، ریاضی، روانشناسی، عصبشناسی، تئوری کنترل، احتمالات، بهینهسازی و فیزیولوژی استفاده شود و کمک بزرگی به تصمیمگیریهای انسان باشد.
AI با استفاده از الگوریتمها، پردازشهایی روی اطلاعات و دادههای موجود انجام میدهد تا بر اساس نتایج آن تصمیمات لازم برای بهبود کار را بگیرد.
حجم و تنوع زیاد دادههای موجود در کنار هزینهی پایین محاسبات و ذخیرهسازی دادهها باعث شده مدلهایی ساخته شوند تا از روی این دادهها، اطلاعات مفید استخراج شود. سیستمهای سنتی نرمافزاری این قابلیت را ندارند، در عوض هوش مصنوعی همان چیزی است که میتواند با استخراج دادههای مفید از بین دادههای موجود، چراغ روشنی در دل دادههای تاریک باشد.
یکی از پیشرفتهای ویژهای که کسبوکارها میتوانند داشته باشند، استفاده از Artificial Intelligence است که موجب تمایز و بهدنبال آن افزایش کارآمدی و سودآوری آنها میشود. در همین راستا شرکتهای فعال در حوزهی AI، خدماتی ارائه میدهند که باعث بهبود عملکرد کسبوکارها میشود. زمینههای زیادی برای استفاده از هوش ماشینی وجود دارد. بهعنوان مثال AI توان ارائهی خدمات در حوزههای زیر را دارد:
کشاورزی
کشاورزی از قدیمیترین شغلها در جهان امروز است. هزاران سال قبل، ابداع کشاورزی و کشت روشمند محصولات زراعی باعث انقلابی در زیست انسانها شد که به انقلاب کشاورزی معروف است. از زمانی که انسان هوشمند، یکجانشینی را بر کوچ ترجیح دادند و کشاورزی را آغاز کردند تا به امروز کشاورزی تغییرات بسیاری را از سر گذرانده و فناوریهای بسیاری وارد این حوزه شدهاند. آخرین نسخه از فناوریهای جدید که به پشتوانهی هوش مصنوعی ممکن شده است کمکم راهش را به کشاورزی باز میکند.
هوش مصنوعی را بسیاری جدیدترین انقلاب در زندگی بشر میدانند. اکنون، مدتی است که استفاده از هوش مصنوعی در کشاورزی آغاز شده است. روشهای سنتی کشاورزی مشکلاتی دارند که میتوان با کمک AI آنها را رفع کرد. برای مثال، میتوان با استفاده از نرمافزارهای هوش مصنوعی گزارشهایی از وضعیت آبوهوا یا شرایط خاک به دست آورد و بر اساس آن برنامهریزی کرد. کشاورزان اکنون میتوانند با استفاده از AI زمان مناسب کشت و برداشت را تخمین بزنند، میزان آب مناسب برای هر محصول و زمان مناسب آبیاری را بدانند.
پزشکی
یکی از قدیمیترین کاربردهای هوشمصنوعی کاربردهای پزشکی آن است. تلاشهای اولیه برای آوردن هوش مصنوعی به این حوزه شاید اندکی ناامیدکننده بود. نخستین فناوری بر پایهی AI در این حوزه، MYCIN بود که در دههی ۱۹۷۰ در دانشگاه پرینستون برای تشخیص عفونتهایی استفاده شد که از طریق خون منتقل میشوند. این فناوری و فناوریهای مشابه در این دوره، با اینکه بسیار نویدبخش بودند، اما هیچگاه از سطح نمونههای آزمایشگاهی فراتر نرفتند. در واقع هم این سیستمهای اولیه چندان برتری در ابزارهای تشخیصی که خود پزشکان انجام میدادند نداشت.
پس از مدتی کمکم شرایط تغییر کرد. تا جایی که کمتر روزی است که خبری در حوزهی هوش مصنوعی در پزشکی منتشر نشود. البته هنوز بسیار از این فناوریهای جدید مرحلهی آزمایشی خود را میگذرانند. اما شاید برای درک بهتر کاربردهای عملیاتیتر AI در پزشکی بد نباشد اشارهای به یکی از همین کاربردها داشته باشیم: استفاده از هوش مصنوعی برای تشخیص بهترین شیوهی زایمان. در این فناوری، AI با سنجش وضعیت زنان باردار میتواند پیشنهاد دهد که از بین روش طبیعی زایمان و سزارین کدام روش مناسبتر است.
بازارهای مالی و بانکداری
گفتیم که یکی از امکانهایی که هوش مصنوعی در اختیار ما قرار میدهد توان پیشبینی است. امروز دیگر بحث تحلیل بازارهای مالی از طریق هوش مصنوعی صرفاً یک ایده نیست. الگوریتمهایی که برای تحلیل بازار آموزش دیدهاند میتوانند لحظهبهلحظه بازارهای مالی را رصد کنند و با اطلاعاتی که جمعآوری میکنند تصویر واضح و دقیق از وضعیت هر سهم در بازار ارائه دهند. حتی میتوانید معامله کردن را نیز به باتهایی بسپارید که برای این کار طراحی شدهاند.
صنعت بانکداری نیز از قافلهی استفاده از AI جا نمانده است. هوش مصنوعی در بانکداری جای پایاش را باز کرده است. استفاده از چتباتها مدتهاست که در بانکداری رواج یافته است. چتبات امکانی است که از طریق آن کاربر شما میتواند با نرمافزاری که در آن از هوش ماشینی استفاده شده گفتوگو کند. یکی از امکانهای جالبی که این چتباتهای بهظاهر ساده فراهم آوردهاند این است که خدماتدهندگان در هر ساعتی از شبانهروز در دسترس مشتریان خود هستند. همانطور که گفتیم این تنها بخش کوچکی از نقش هوش مصنوعی در بانکداری است.
حوزهی آموزش
بخش آموزش از حوزههایی است که هوشمصنوعی هنوز در آن جای پیشرفتهای بسیاری دارد. مخصوصاً این روزها که همهگیری کرونا دانشآموزان و معلمان را خانهنشین کرده جای خالی فناوریهای آموزشی بر پایهی AI بیش از پیش احساس میشود.
یکی از مهمترین امکانهایی که هوش مصنوعی در آموزش میتواند فراهم آورد شخصیسازی آموزش با توجه به نیازهای منحصربهفرد هر کدام از دانشآموزان است. از نقاط ضعف سیستم آموزشی امروز این است که برای همهی دانشآموزان محتوای درسی یکسانی تدارک میبیند و به تفاوتهای فردی دانشآموزان توجهی ندارد. طبیعی است سرعت یادگیری و علائق دانشآموزان در هر کدام از شاخههای درسی یکسان نباشد. حال تصور کنید سیستمی داشته باشیم که با دادن سابقهی تحصیلی دانشآموز به آن برنامهی درسی مناسب برای دانشآموز را در اختیارتان قرار دهد. در واقع، این یکی از سادهترین کارهایی است که میتوان از ماشینهایی برپایهی هوش مصنوعی (AI) انتظار داشت.
میتوان چند قدم جلوتر رفت. مثلاً میتوان سیستم را طوری طراحی کرد که با توجه به برنامهی شخصی دانشآموز محتوای درسی مناسب او را نیز در اختیارش قرار دهد و ارزشیابی دانشآموز را نیز خودش بر عهده بگیرد. در واقع، ما در اینجا با معلم هوشمندی طرف هستیم که همیشه برای دانشآموز وقت دارد و نیازهای هر دانشآموز را در نظر میگیرد.
بنابراین اگر بخواهیم، با توجه به گفتههای پیشین، دربارهی کاربردهای AI در بخشهای مختلف سختگیرانه صحبت کنیم، باید بگوییم تنها تکنولوژیهایی را میتوان کاملاً در حوزهی هوشمصنوعی قرار داد که خودشان بتوانند بدون دخالت عامل انسانی چیز جدیدی را فرابگیرند.
در این مورد شاید فناوری DeepMind گوگل مثال خوبی باشد. این فناوری را در AI در مقولهی شبکههای عصبی جای میدهند. DeepMind قادر است بدون تکیه بر الگوریتمهای رفتاری از پیش تعریف شده تصمیمگیری کند. بهخاطر کم بودن تکنولوژیهایی مثل این محصول گوگل، میتوان گفت که هوشمصنوعی هنوز کودکی نوپاست که راه بسیاری در پیش دارد. برخی از متخصصان تکنولوژیهای امروزیِ بر پایهی هوش مصنوعی را فناوریهای شبههوش مصنوعی(pseudo AI) مینامند تا بر نوپا بودن آن تاکید کنند.
حملونقل
از نخستین انگیزهایی که هوش مصنوعی را وارد عرصهی حملونقل کرد مشکلات بیشمار این حوزه بود. یکی از مشکلات اساسی این حوزه آسیبهای جانی و مالی فراوانی است که هر ساله به بسیاری وارد میشود.
کافی است به آمار تلفات جادهای در همین کشور خودمان نگاهی بیندازید تا میزان حاد بودن این مشکل پی ببرید. ماشینهای هوشمند که توان تحلیل قدرتمندی دارند میتوانند در حل این مشکل به کمک انسان بیایند.
مثال دیگری از مشکلات این حوزه مسئلهی ترافیک است. وورد AI به مدیریت ترافیک میتواند همان حلقهی گمشدهی این معضل باشد. چرا که سیستمهای هوش مصنوعی بهسرعت میتوانند خود را با وضعیتهای جدید سازگار کنند و عملکرد خود را بهبود ببخشند.
صنعت سرگرمی و سینما
یکی از فناوریهای متکی به AI که تقریباً هر روز از آن استفاده میکنیم و برایمان عادی شده است، سیستمهای پیشنهاددهنده است. زمانی که در یوتیوب ویدئویی نگاه میکنید، گوگل ویدئوهایی دیگری را نیز به شما پیشنهاد میدهد که شاید موردپسندتان باشد. همین فناوری بهظاهر ساده میتواند با توصیههایش کسانی را که بهصورت اتفاقی وارد سایتتان شدهاند در سایت نگه دارد.
از ابزارهای مفید دیگری که AI میتواند برای این بخش فراهم آورد،خلاصهسازی اخبار و گزارشها برای انتشار است. خلاصهسازی بیش از همه بحثی است که در پردازش زبان طبیعی بررسی میشود.
محیط زیست و انرژی
سادهترین کاربرد هوش مصنوعی در این حوزه میتواند استفاده از AI در مدیریت نیروگاهها و پالایشگاهها باشد. با استفاده از هوش مصنوعی میتوان الگوهایی برای مدیریت این مراکز داشت که خطای بسیاری کمتری داشته باشند.
یکی از جالبترین کاربردهای هوش مصنوعی در حوزهی محیطزیست، استفاده از آن برای محافظت از گونههای در خطر انقراض است. در یکی از این موارد، از فناوری تشخیص چهره برای حفظ گونهای از میمونها استفاده شده است. ردگیری گونههای در خطر انقراض با ابزارهای فیزیکی دشوار و هزینهبر است.
نرم افزارهای هوش مصنوعی تصویر گونهها را با اطلاعات منحصربهفرد هر مورد ذخیره میکنند. هر تصویر جدیدی که وارد این نرمافزار میشود، بهصورت هوشمند تحلیل میشود و شما میتوانید بدانید آیا این مورد قبل از این در جای دیگری دیده شده است و مشخصات منحصربهفردش چیست.
جدیدترین نمونههای هوش مصنوعی در جهان که صنایع را متحول کردهاند
هوش مصنوعی (AI) با کاربردهای باورنکردنی خود در سراسر جهان موجی از تغییرات اساسی ایجاد کرده و آخرین نمونههای این فناوری نیز از این قاعده مستثنی نیستند. از چتباتها گرفته تا ابزارهای خلاقانه دیگر، هوش مصنوعی نحوه تعامل ما با فناوری را تغییر داده است. بیایید نگاهی بیندازیم به برخی از آخرین و جدیدترین نمونههای هوش مصنوعی در جهان که تا مدتها تیتر یک اخبار را به خود اختصاص داده بودند:
ChatGPT، از جدیدترین نمونههای هوش مصنوعی مکالمهای که جهان را مبهوت خود ساخته
ChatGPT یک سیستم هوش مصنوعی مکالمهای پیشرفته است که از الگوریتم یادگیری عمیق برای درک و ایجاد پاسخهای زبانی انسان مانند استفاده میکند. این مدل زبانی از خانواده GPT (Generative Pre-trained Transformer) است و آخرین نسخه آن، GPT-3.5، بهمنظور درک و پاسخگویی به طیف گستردهای از موضوعات، بر روی حجم عظیمی از دادهها آموزش دیده است. این موضوع ChatGPT را به یکی از پیشرفتهترین مدلهای زبانی در سراسر جهان تبدیل کرده. این چتبات را میتوان برای طیف گستردهای از برنامهها، از جمله خدمات مشتریان، ترجمه زبان و حتی نوشتن خلاق استفاده کرد.
دال ای، بهترین مبدل برای ایجاد تصاویر خیرهکننده و بینظیر
دال ای یک تولیدکننده تصویر مبتنی بر هوش مصنوعی است که توسط OpenAI همان شرکت سازنده ChatGPT توسعه یافته. این مبدل میتواند تصاویر واقعی را براساس توضیحات متنی ایجاد نماید، به این معنی که شما یک شیء یا صحنه را توصیف میکنید و دال ای یک تصویر واقعی از آن برایتان ایجاد مینماید. تصاویر تولید شده توسط دال ای واقعا باورنکردنی هستند و پتانسیل هوش مصنوعی را در زمینه هنرهای خلاق به نمایش میگذارند. این برنامه یکی از جدیدترین نمونههای هوش مصنوعی در جهان است که کاربردهای بیشماری در صنایعی مانند طراحی محصول و تبلیغات دارد.
لامدا، نسل بعدی ابزارهای هوش مصنوعی برای توسعهدهندگان
لامدا یک پلتفرم محاسباتی قدرتمند است که توسط خدمات وب آمازون (AWS) توسعه یافته و طیف وسیعی از ابزارهای یادگیری ماشین و هوش مصنوعی را ارائه میدهد. این محصول طراحی شده تا ساخت و استقرار برنامههای هوش مصنوعی را برای توسعهدهندگان آسانتر سازد و توسط تعدادی از شرکتها برای ایجاد راهحلهای پیشرفته هوش مصنوعی استفاده گردیده است.
بارد، زمینهساز انقلابی در زمینه نویسندگی خلاق
بارد یک مدل زبان هوش مصنوعی است که توسط گوگل توسعه یافته و میتواند شعر و نثر را با کیفیت بالا در سبکها و قالبهای مختلف تولید نماید. این مجموعه بر روی پایگاه دادهای عظیمی از ادبیات آموزش دیده که آن را قادر میسازد تا نوشتاری در سبکها و ژانرهای مختلف ایجاد نماید. بارد توسط شاعران و نویسندگان سراسر جهان برای خلق آثار جدید استفاده شده و به دلیل توانایی آن در تقلید از سبک و لحن نویسندگان مورد تحسین قرار گرفته و این پتانسیل را دارد که انقلابی در زمینه نویسندگی خلاق ایجاد نماید.
اینها تنها تعدادی از آخرین و جدیدترین نمونههای هوش مصنوعی در جهان هستند که زندگی ما را متحول ساختهاند. از مدلهای زبانی گرفته تا ابزارهای خلاقانه دیگر، هوش مصنوعی طرز فکر ما را درباره فناوری و پتانسیل آن تغییر داده است.
کاوش در کاربردهای تخصصی هوش مصنوعی
هوش مصنوعی (AI) در حال تغییر نحوه عملکرد صنایع و مشاغل است و فناوریهای مبتنی بر هوش مصنوعی درها را به روی دنیایی از امکانات باز میکنند. در میان بسیاری از کاربردهای تخصصی هوش مصنوعی، قابلیتهای تشخیص چهره، تشخیص اشیا و سایر عملکردهای تخصصی این فناوری توجه روزافزونی را به خود جلب کردهاند. این عملکردهای هوش مصنوعی راه خود را به صنایع مختلف، از مراقبتهای بهداشتی گرفته تا خردهفروشی باز کرده و نحوه انجام کارها را تغییر دادهاند.
فناوری تشخیص چهره، از مهیجترین کاربردهای هوش مصنوعی برای متحول کردن زندگی ما
یکی از برجستهترین و مهیجترین کاربردهای هوش مصنوعی، تشخیص چهره است. تشخیص چهره یک فناوری قدرتمند است که به ماشینها اجازه میدهد تا چهرههای انسانی را تجزیهوتحلیل و شناسایی کرده و این امر اهمیت فزایندهای برای اهداف امنیتی و احراز هویت دارد. این کاربرد هوش مصنوعی میتواند در موارد بسیاری از اجرای قانون گرفته تا باز کردن قفل دستگاههای شخصی مورد استفاده قرار گیرد.
علاوهبراین، تشخیص چهره برای تحقیقات بازاریابی نیز استفاده میشود. فروشگاههای خردهفروشی میتوانند از تشخیص چهره برای ردیابی اطلاعات جمعیتی مشتریان خود مانند سن، جنسیت و حتی خلق و خوی آنها استفاده کنند. سپس میتوانند از این اطلاعات به دست آمده برای تنظیم کمپینهای بازاریابی و کمک به فروشگاهها در بهینهسازی مکانهای محصول و چیدمان فروشگاه استفاده نمایند.
تشخیص اشیا، از تاثیرگذارترین کاربردهای هوش مصنوعی در خرده فروشیها
یکی دیگر از کاربردهای تخصصی هوش مصنوعی که درحال کسب محبوبیت روز افزونفزونافزو است، فناوری تشخیص اشیا است. تشخیص شیء توانایی یک ماشین برای شناسایی یک شی خاص در یک تصویر یا ویدئو است. این فناوری کاربردهای متعددی دارد و از خودروهای خودران گرفته تا اتوماسیون خانگی میتوان از آن بهره برد. در خردهفروشی، تشخیص اشیا میتواند برای شناسایی و ردیابی اقلام موجود در قفسههای فروشگاه استفاده شود و کسبوکارها را قادر میسازد تا سطح موجودی محصول خود را بهتر مدیریت کنند.
در مراقبتهای بهداشتی، از قابلیتهای تشخیص اشیاء مبتنی بر هوش مصنوعی برای تشخیص بیماریها و ناهنجاریها استفاده میشود. محققان درحال توسعه ابزارهای جدید هوش مصنوعی هستند که میتوانند شرایط پزشکی مختلف را براساس تصاویر پزشکی مانند اشعه ایکس و اسکن MRI شناسایی و طبقهبندی کنند. این به پزشکان کمک میکند تا تشخیصهای سریعتر و دقیقتری داشته باشند و درمان بهتری را به بیماران خود ارائه دهند.
تشخیص گفتار و پردازش زبان طبیعی، از ضروریترین کاربردهای هوش مصنوعی در جهان امروز
سایر عملکردهای تخصصی هوش مصنوعی شامل تشخیص گفتار و پردازش زبان طبیعی است. این برنامهها نحوه تعامل مردم با فناوری را از دستیارهای صوتی گرفته تا چتباتها تغییر میدهند. در آینده، انتظار میرود که هوش مصنوعی حتی تخصصیتر شود و برنامههای کاربردی جدید و نوآورانه همواره در حال توسعه باشند.
با وجود کاربردهای فراوان هوش مصنوعی، هنوز نگرانیهایی در مورد سوء استفاده احتمالی از این فناوری وجود دارد. برخی میترسند که تشخیص چهره و سایر کاربردهای تخصصی هوش مصنوعی منجر به نقض حریم خصوصی و آزادیهای مدنی افراد گردد. بنابراین، بسیار مهم است که توسعه و استفاده از هوش مصنوعی به دقت تنظیم و نظارت شود، تا از استفاده اخلاقی و مسئولانه آن اطمینان حاصل گردد.
در نتیجه میتوان اینگونه گفت که، کاربردهای هوش مصنوعی بسیار گسترده و متنوع است و میتواند با عملکردهای تخصصی مانند تشخیص چهره، تشخیص اشیا و پردازش زبان طبیعی، صنایع و مشاغل را متحول نماید.
اپیدمی از دست دادن شغل با هوش مصنوعی تا سال ۲۰۳۰
هوش مصنوعی بهسرعت درحال دگرگونی صنایع در سراسر جهان است. درحالیکه این فناوری مزایا و فرصتهای زیادی برای رشد دراختیار کسبوکارها قرار میدهد، اما بسیاری آن را تهدیدی قابلتوجه برای اشتغال میدانند. برخلاف تصور این عده که ظهور فناوریهای هوش مصنوعی و اتوماسیون را علت اصلی از دست رفتن مشاغل در بخشهای مختلف از جمله تولید، خدمات مشتری، حملونقل و حتی مشاغل یقهسفید مانند حسابداری و حقوق عنوان میکنند، اما درواقع این تکنولوژی آمده تا فرایندهای کاری را سادهسازی کرده و کارایی را در صنایع مختلف افزایش دهد.
همانطور که سیستمهای هوش مصنوعی پیشرفتهتر میشوند، قادر به انجام وظایفی هستند که زمانی تنها مسئولیت انسانها بوده. اما این به معنای حذف نیروی انسانی از فرایندهای کاری نیست، بلکه هدف برداشتن سختی کار از دوش این نیروها و قرارگیری انسان و فناوری در کنار هم است. بهعنوانمثال، چتباتها و دستیاران مجازی میتوانند درخواستهای مشتری و پشتیبانی را انجام دهند، درحالیکه رباتها میتوانند محصولات را مونتاژ و تولید کنند. با وجود این توضیح، ادغام فناوری در مشاغل باز هم منجر به ایجاد نگرانیهایی در مورد امنیت شغلی و تأثیر آن بر جامعه گردیده و این هجمه را ایجاد کرده که در سالهای پیش رو از دست دادن شغل با هوش مصنوعی، تهدیدی جدی برای میلیونها نیروی کار فعال در سراسر جهان خواهد بود.
از دست دادن شغل با هوش مصنوعی، تهدیدی برای میلیونها نیروی کار در سراسر جهان
براساس مطالعهای که توسط موسسه جهانی مک کینزی انجام شده، اتوماسیون میتواند تا سال ۲۰۳۰ جایگزین ۳۷۵ میلیون شغل در سراسر جهان شود. تنها در ایالاتمتحده، تخمین زده میشود که حدود ۴۷٪ از تمامی مشاغل در معرض خطر خودکار شدن قرار گیرند. البته مشاغل جدیدی جایگزینی مشاغل از دست رفته بهدلیل اتوماسیون خواهند شد، اما مقیاس و سرعت جابهجایی شغل میتواند قابلتوجه باشد.
تأثیر هوش مصنوعی بر اشتغال درحالحاضر در چندین بخش مشهود است. بهعنوانمثال، استفاده از وس
ایلنقلیه خودران میتواند منجر به از دست دادن میلیونها شغل در صنعت حملونقل و ایجاد مشاغل جدید گردد. ماشینهای خودکار و رباتها نیز جایگزین کارگران انسانی در کارخانههای تولیدی میشوند که این امر منجر به از دست دادن شغل با هوش مصنوعی و جایگزینی مشاغل جدید در این بخش میگردد.
صنعت خردهفروشی نیز تحتتأثیر هوش مصنوعی قرار گرفته است، زیرا افزایش خرید آنلاین و سیستمهای پرداخت خودکار نیاز به نیروی انسانی را کاهش داده است. در بخش مالی، سیستمهای مبتنی بر هوش مصنوعی در حال جایگزینی مشاغل در زمینههایی مانند حسابداری و تحلیل مالی هستند.
در واقع هوش مصنوعی جایگاه شغلی افراد را اشغال نمیکند، بلکه متخصصانی که از این فناوری در فرایند کاری خود استفاده میکنند، جایگزین نیروهای غیرمتخصص خواهند شد.
از تهدیدها تا فرصتها: هوش مصنوعی چگونه میتواند باعث ایجاد شغل و رونق اقتصادی گردد؟
درحالیکه تأثیر هوش مصنوعی بر اشتغال قابلتوجه است، اما نمیتوان تمامی این تاثیر را منفی دانست. هوش مصنوعی همچنین فرصتهای شغلی جدیدی ایجاد کرده است، بهویژه در زمینههای مرتبط با توسعه و نگهداری سیستمهای مرتبط با این فناوری. بهعنوانمثال، بهواسطه این تکنولوژی تقاضای فزایندهای برای دانشمندان داده، مهندسان یادگیری ماشین و متخصصان اخلاق هوش مصنوعی به وجود آمده است. با این حال، نمیتوان این امر را هم نادیده گرفت که این مشاغل به مهارتها و آموزشهای تخصصی نیاز دارند و براین اساس نیروهای کار باید برای ارتقا توانمندیهای خود در دنیای جدید که فناوری حرف اول در آن را میزند تلاش داشته باشند. دولتها و کسبوکارها باید اقداماتی را برای رسیدگی به تاثیر هوش مصنوعی بر اشتغال انجام دهند. این میتواند شامل سرمایهگذاری در برنامههای آموزشی بهمنظور کمک به کارگران، برای کسب مهارتهای موردنیاز در مشاغلی با موضوع هوش مصنوعی باشد. همچنین میتواند شامل بررسی مدلهای اقتصادی جدید، برای حمایت از کسانی باشد که به دلیل اتوماسیون از کار بیکار شدهاند.
درنتیجه، درحالیکه هوش مصنوعی مزایای متعددی را برای جامعه به ارمغان میآورد، همچنین میتواند تهدیدی قابلتوجه برای مشاغل نیز به شمار رود. دولتها و کسبوکارها باید با یکدیگر همکاری کنند تا به معظل از دست دادن شغل با هوش مصنوعی رسیدگی نموده و آیندهای را ایجاد کنند که در آن انسانها و ماشینها بتوانند در کنار هم زندگی نمایند.
آشنایی با رباتهای مطرح هوش مصنوعی در جهان
هوش مصنوعی در چند سال گذشته با سرعتی باورنکردنی درحال پیشرفت بوده و اخبار مرتبط با رباتهایی که از این فناوری استفاده میکنند در زندگی روزمره ما بسیار به گوش میرسد. در اینجا چند نمونه از رباتهای مطرح هوش مصنوعی در جهان آورده شده است:
سوفیا، رباتی با هوش هیجانی که در جهان طوفان به پا کرده
سوفیا یک ربات انسان نمای اجتماعی است که توسط شرکت Hanson Robotics در هنگ کنگ ساخته شده. این ربات قادر به پردازش دادههای بصری، تشخیص چهره و همچنین گفتگو با انسان است و از هوش مصنوعی برای درک و پاسخ به احساسات و سوالات انسانی استفاده میکند. سوفیا در محافل عمومی متعددی حضور داشته و حتی تابعیت عربستان سعودی را نیز دریافت کرده است. این ربات در مصاحبه با رسانههای خبری مانند CNN و بی بی سی به نمایش گذاشته شده است.
پیپر، بهترین دوست انسان با توانایی خاص در برقراری تعامل طبیعی
پیپر یک ربات انسان نما است که برای تعامل با انسان به روشی طبیعی طراحی گردیده است. این ربات که توسط Softbank Robotics ساخته شده در اصل برای کار در محیطهای خردهفروشی طراحی گردیده و قادر به تشخیص احساسات، درک گفتار و پاسخ مناسب به آنها است. این ربات در محیطهای مختلفی از هتلها گرفته تا بیمارستانها استفاده گردیده است.
اسپات، ربات چهارپای همه کاره که تحولی در کاربردهای صنعتی و تجاری ایجاد کرده
اسپات یک ربات چهار پا است که بهعنوان یکی از رباتهای مطرح هوش مصنوعی در جهان شناخته شده و برای کاربردهای صنعتی و تجاری توسط تیم Boston Dynamics طراحی گردیده است. اسپات که مجهز به سنسورها، دوربینها و فناوریهای پیشرفته است، میتواند در سطوح مختلف و محیطهای پیچیده حرکت کند و طیف وسیعی از وظایف مانند بازرسی سایتهای ساختوساز یا عملیات جستجو و نجات را انجام دهد.
سگ ربات سونی؛ آیبو گامی به سوی حیوانات خانگی رباتیک
آیبو یک سگ رباتیک است که توسط شرکت سونی ساخته شده. آیبو که به فناوری هوش مصنوعی مجهز گردیده، میتواند یاد بگیرد و خود را با محیط اطراف سازگار سازد و همچنین صدا و حرکات صاحبان خود را تشخیص داده و به آنها پاسخ دهد. آیبو به خاطر حرکات واقعگرایانه و ویژگیهای بیانیاش مورد توجه بسیاری قرار گرفته است.
باکستر، ربات پیشرفتهای که پابهپای انسان کار میکند
باکستر رباتی است که توسط Rethink Robotics ساخته شده است. باکستر که برای کار در کنار انسان در حوزه تولید و سایر صنایع طراحی شده، قادر به انجام وظایف مختلفی از کار در خط مونتاژ گرفته تا بستهبندی و حملونقل است. این ربات بهدلیل رابط کاربرپسند و انعطافپذیری خود شناختهشده است.
آسترو، یک ربات پیشرفته همراه برای جهشی عظیم به دنیای فردا
آسترو که توسط سونی توسعه یافته، یک ربات همراه است که برای کمک به بهبود کیفیت زندگی انسانها طراحی گردیده است. با کمک فناوریهای پیشرفته هوش مصنوعی، آسترو میتواند احساسات انسانها را تشخیص داده و به آن پاسخ دهد. این ربات همچنین میتواند از محیط خود بیآموزد و حتی با دستگاههای دیگر ارتباط برقرار کند.
اینها تنها چند نمونه از رباتهای مطرح هوش مصنوعی در جهان هستند که هرکدام قابلیتها و کاربردهای منحصر به فرد خود را دارند. همانطور که فناوری هوش مصنوعی به تکامل خود ادامه میدهد، میتوان انتظار داشت که در سالهای آینده شاهد رباتهای پیشرفتهتر و پیچیدهتری نیز باشیم.
تواناییها و قابلیتهای هوش مصنوعی
با مروری که درباره کاربردهای هوش مصنوعی در کشورمان داشتیم، دشوار نیست که حدس بزنیم آینده شگفتانگیزی در انتظار صنایع گوناگون است. همچنان که هر روز شاهد اخباری جدید و جالب درباره چگونگی کاربرد هوش مصنوعی در زندگی هستیم، در آینده نزدیک همه چیز بیش از امروز و آنچه که هست به هوش مصنوعی گره میخورد. این یعنی روندهای بیشتری از زندگیمان به کمک هوش مصنوعی، هوشمندسازی خواهد شد. در ادامه برخی از قابلیتهای هوش مصنوعی که در آینده به منصه ظهور میرسند را مرور میکنیم.
توسعه اتومبیلهای خودران(TESLA)
پیشرانه توسعه تکنولوژی جهان در زمینه خودروهای خودران، شرکت تسلا است. این شرکت اخیراً اعلام کرده است که میخواهد به طور کامل با از فناوری راداری مستقل شده و از قویترین پردازشگرهای هوش مصنوعی در شاخه بینایی ماشین برای حالت Autopilot خودروی تسلا استفاده کند. این قابلیت یکی از منحصربهفردترین توانمندیهای هوش مصنوعی در حال حاضر جهان بهحساب میآید.
تحول در متدهای برنامهنویسی
در حال حاضر ایدهها و طرحهایی از سوی متخصصین هوش مصنوعی ارائه میشود مبنی بر اینکه روندهای برنامهنویسی به کمک هوش مصنوعی و با حذف نیروی انسانی انجام شود. در حال حاضر نیز، برنامهنویسان و طراحان وبسایتها میکوشند تا Sketch ها را به کمک Artificial Intelligence به کدهای Html تبدیل کنند که این خود نشان از آغاز هوشمندسازی روندهای برنامهنویسی در آینده نزدیک دارد.
آهنگسازی، شعرسرایی و نمایشنامهنویسی
اخیراً دانشمندان دانشگاه MIT آمریکا به همراه بتهوون شناسان مشهور، توانستهاند به کمک هوش مصنوعی فقرات مفقود شده سمفونیهای این آهنگساز مشهور آلمانی را ترمیم کنند. این کار از طریق یادگیری شیوه آهنگسازی توسط هوش مصنوعی و بازخوانی سمفونیهای دیگر بتهوون صورتگرفته است. بسیار خب، میتوان دریافت که در آینده میتوانیم شاهد نگارش نمایشنامههایی قویتر از شکسپیر، آهنگهایی عمیقتر از موتسارت، انگارههای فلسفی ژرفتر از هگل باشیم که هرکدام در جای خود زلزلهای فکری در جهان به راه انداختند. در واقع، میتوان این قابلیت را از هوش مصنوعی انتظار داشت که بتواند به فرهنگ و هنر تمدنهای انسانی خدمت قابلتوجهی بکند و محصولات فرهنگی عمیقی را ارائه دهد.
تولید خودکار بازیهای رایانهای
بازیهای رایانهای جزو پرسودترین صنایع جهان هستند. به طور مثال تصور کنید بازیهای مشهوری نظیر God of War 3 که برای کنسولهای نسل پنج ارائه شده است و طراحی و تولید آن چند سال به طول انجامیده، نسخه چهارم آن به کمک هوش مصنوعی در یک شبانهروز نوشته شود. این موضوع بدون تردید مایه شگفتی خواهد بود. این موضوع نمیتواند منجر به تعطیلی شرکتهای تولیدکننده بازیهای کامپیوتری شود، بلکه موضوع رقابت بین شرکتهای تولیدکننده را تغییر میدهد. به بیان دیگر موضوع از تولید بازی، به تولید سناریوهای قدرتمند بازی و عمیقتر شدن و معناگرا شدن تغییر خواهد کرد و این به لطف هوش مصنوعی در آینده رقم میخورد.
ترمیم تصاویر و نوشتهها باستانی
هوش مصنوعی این قابلیت را دارد تا به کمک فناوری یادگیری عمیق، فقرههای مفقود شده یک متن باستانی را تکمیل کند و یا یک نقاشی یا مجسمه یا شهری که در گذر زمان، تخریب شده است را بازطراحی نماید. با این کار میتوانیم به کمک هوش مصنوعی پلی به آنسوی تاریخ بزنیم و گذشته گذشتگانمان را عمیقتر از قبل بشناسیم. به طور مثال، میتوانیم تصور کنیم که در آینده منشور حقوق بشر کوروش هخامنشی به کمک هوش مصنوعی تکمیل شود و فقرههای مفقود شده آن کشف گردد.
وضعیت کنونی هوش مصنوعی در جهان
در سال ۲۰۲۰، هوش مصنوعی از حاشیه به متن فناوری آمد. هر روز که میگذرد کسبوکارهای بزرگ توجهشان به این حوزه بیشتر جلب میشود و سرمایههای بیشتری به این بازار سرازیر میشود. سریال The Social Dilemma که از نتفلیکس پخش شد بحثهای داغی دربارهی ابعاد پیدا و پنهان AI برانگیخت.
همین بحثها بسیاری از شرکتها و فعالان این حوزه را برانگیخت که به سراغ تنظیم دستورالعملهای اخلاقی فعالیت در این حوزه بروند. کوتاه اینکه همین افزایش حساسیتها نسبت به هوش مصنوعی نشاندهندهی این است که در سطح جهان بسیاری متوجه اهمیت و ضرورت آن شدهاند میکوشند تا این حوزه را در کنترل خود بگیرند.
کافی است نگاهی به فهرست ارزشمندترین و بزرگترین شرکتهای جهان یا بزرگترین شرکت هوش مصنوعی ایران بیندازید. از گوگل و اپل گرفته تا فیسبوک و آمازون همگی شرکتهای فناوری به حساب میآیند. تصور این شرکتها بدون متخصصان و فناوریهای AI تقریباً محال است.
بازار کار رشتهی هوش مصنوعی روزبهروز گسترش پیدا میکند. طبیعتاً هر چقدر کاربردهای AI در رشتههای علمی دیگر و زندگی روزمره بیشتر شود بازار کار آن نیز بزرگتر خواهد شد. از نظر آکادمیک، رشتهی machine intelligence یکی از پرطرفدارترین شاخههای رشتهی کامپیوتر در ایران است. در ایران بیشتر شرکتهای خصوصی در این حوزه سرمایهگذاری میکنند و متخصصان هوشمصنوعی را به کار میگیرند.
در ایران، در سال ۱۳۹۸ دانشگاههای بوعلی سینا همدان، اصفهان، تبریز، زنجان، شهید بهشتی، سمنان، شیراز، صنعتی اصفهان، صنعتی امیرکبیر، صنعتی شریف، علم و صنعت، خواجهنصیر، فردوسی مشهد، یزد، شهید باهنر کرمان، تهران، صنعتی شاهرود و غیر انتفاعی علوم شناختی به جذب دانشجوی دکتری پرداختند.
تعداد دانشجویان دکتری جذبشده در این سال ۱۱۸ نفر در دورههای مختلف بوده است. متاسفانه یکی از خلاهای اطلاعاتی در این بخش میزان جذب نخبگان هوش مصنوعی در بازار کار ایران است.
رتبه ایران در هوش مصنوعی
بر اساس اعلام بخش تحقیق و توسعه موسسه آیندهپژوهی دانس و فناوری سینا، ایران هشتمین کشور برتر دنیا از لحاظ مقالات پر استناد است و تنها کشوری در خاورمیانه است که در بین ۱۰ کشور برتر دارای بیشترین مقالات پر استناد جای گرفته است. با این آمارها طبیعتاً نباید تعجب کنید که شرکتهای چند حوزهای هوش مصنوعی بسیاری در ایران فعالاند. هر کدام از این شرکتها در بخشهای مختلف اقتصادی و صنعتی که پیش از این گفتیم محصولات بومی جالب و مهمی دارند.
ده کشور برتر جهان از نظر تعداد مقالات هوش مصنوعی
درآمد متخصصان هوش مصنوعی
درآمد متخصصان هوش مصنوعی بر اساس میزان مهارتشان تفاوتهای اساسی با هم دارد. در ایران، مثل درآمد بیشتر شغلها، نمیتوان از میانگین دریافتی متخصصان machine intelligence عدد دقیقی به دست آورد. اما با بررسی درآمد متخصصان هوش مصنوعی در کشورهای دیگر میتوان تصویری از دریافتیها در این حوزه داشت.
برآوردها نشان میدهد در آمریکا حداقل درآمد متخصصان AI چهلونه هزار دلار است. اما این عدد درآمد سالانهی تنها بیستوپنج درصد از متخصصان هوش مصنوعی است. متوسط درآمد سالانهی هفتادوپنج درصد از شاغلان این حوزه چیزی در حدود صدوپنجاه هزار دلار است. البته مانند هر حوزهی دیگری متخصصان برتر AI درآمدی بسیار بیشتر از این اعداد دارند. بنابر گزارشی که در کتاب بومشناسی هوش مصنوعی شرکت پارت آمده است در تابستان سال ۱۳۹۹ حدود ۱۰۰ شرکت در حوزهی machine intelligence در ایران فعالند. این شرکتها در ۵ حوزهی دادهکاوی، بینایی ماشین، پردازش گفتار، پردازش زبان طبیعی و شرکتهای چندحوزهای هوشمصنوعی مشغول به فعالیت هستند.
چالشهای پیشروی هوش مصنوعی در ایران
در بخش مشاغل هوش ماشینی ایران در چند سال اخیر، با توسعهی ICT و اپلیکیشنهای موبایل، اینترنت و… مشاغلی مانند تاکسیهای اینترنتی، فروشهای اینترنتی، بازیها و…. بازار غیر سختافزاری پیدا کرده و به تبع آن هوش مصنوعی در این بخشها پیشرفتهای خوبی داشته است.
در توسعهی استفاده از AI و مسائل مرتبط با آن، مسئلهی مهم ایجاد زیستبومی است که در آن شرکتهای بهوجود بیایند و منافع آیندهشان را در این حوزه درک کنند. از جمله چالشهای اصلی در این بخش این است که متاسفانه ایران جایگاه مناسبی در بحث آماده بودن برای جذب هوش مصنوعی را ندارد و آمادگی لازم در این خصوص دیده نمیشود.
بر اساس آمار ارائهشده از سوی معاون وزیر ارتباطات، ایران در آمادگی جذب هوش مصنوعی رتبهی ۷۲ را در دنیا دارا بوده که بر اساس رتبههای ما در بخشهای دیگر machine intelligence همچون تولید علم، رتبهی خوبی نیست. متاسفانه در ایران دادهها شامل نوعی محرمانگی میشوند. یکی از راهکارهای توسعه در این حوزه، در اختیار گذاشتن داده برای عموم است. با این کار است که محققان میتوانند روی دادههای موجود کار کنند.
بخش مهمی از فعالیتهای ماکس بیزرمن در مرز مشترک مذاکره و تصمیم گیری متمرکز است و معمولاً میکوشد این دو حوزه را در ارتباط با یکدیگر بررسی کند. شناختهشدهترین کتاب او یعنی Judgment and Managerial Decision Making (قضاوت در تصمیم گیری های مدیریتی) از این ویژگی مستثنی نیست. کتابی که در ایران با عنوان مدیران و چالش های تصمیم گیری به فارسی ترجمه و منتشر شده است.
ماکس بیزرمن نخستین ویرایش کتاب مدیران و چالش های تصمیم گیری را در سال ۱۹۸۷ با هدف معرفی بیشتر ایدههای دنیل کانمن و آموس تورسکی نوشت و اکنون ویرایش هشتم آن، به عنوان یک مرجع معتبر، هم در آموزش مذاکره و هم تصمیم گیری مورد استناد و استفاده قرار میگیرد.
باز هم سیستم یک و دو
برای شما که در متمم با روایت دنیل کانمن از تصمیم گیری آشنا هستید، احتمالاً چندان عجیب نخواهد بود که فصل اول کتاب بیزرمن با بحث سیستم یک و دو در تصمیم گیری آغاز میشود.
بیزرمن هم معتقد است این نوع مدلسازی تصمیمها، میتواند برای شناسایی و تحلیل بهتر تصمیمهای مدیریتی مفید و کارآمد باشد.
او بلافاصله پس از کانمن، به سراغ هربرت سایمون میرود و بحث تصمیم گیری با عقلانیت محدود (Bounded Rationality) را مطرح میکند تا خواننده، برای مطالعهی سایر بخشهای کتاب، آمادگی ذهنی کافی را پیدا کند.
خطاهای شناختی در تصمیم گیری
از فصل دوم تا هفتم کتاب، به بحث خطاهای شناختی در تصمیم گیری اختصاص پیدا کرده است.
میانبرهای ذهنی، انواع سوگیری، اعتماد به نفس بیش از حد، تمرکز بر آخرین اطلاعات، چارچوبهای ذهنی، حسابداری ذهنی و فرو رفتن در دام تصمیمهای قبلی و افزایش غیرمنطقی تعهدات، از جمله مباحثی هستند که در این فصلها مطرح شدهاند.
بیتردید میتوان گفت این کتاب بیزرمن در کنار کتاب تفکر کند و سریع، تمام مدتی که رولف دوبلی مشغول نوشتن هنر شفاف اندیشیدن بوده، روی میز کار او قرار داشته است.
انصاف و اخلاق در تصمیم گیری
فصل هشتم کتاب مدیران و چالش های تصمیم گیری، به انصاف و اخلاق اختصاص یافته است؛ بحثی که میتوان آن را امضای بیزرمن در کتابهایش دانست.
نباید انتظار داشته باشید مطالبی که در حد فصلی از یک کتاب هستند، همهی جنبههای اخلاق کسب و کار را پوشش دهند. اما بیزرمن کوشیده است پیچیدگی و اهمیت اخلاق و انصاف در تصمیم گیری را به خوانندگانش گوشزد کند.
البته این فصل، تنها فصلی نیست که در آن به بحث اخلاق پرداخته شده و بیزرمن از هر فرصت دیگری هم، برای اشاره به بحث اخلاق در تصمیم گیری استفاده میکند. به عنوان مثال، او فصل ششم از کتابش را نیز با روایتی از چالشِ ریل و قطار (که در انتهای فایل صوتی تصمیم گیری مطرح شده) آغاز کرده است.
تصمیم گیری در سرمایه گذاری و مذاکره
بیزرمن فصلهای ۹ و ۱۰ و ۱۱ کتاب خود را به زوایای مختلفِ بحث تصمیم گیری در سرمایه گذاری و مذاکره اختصاص داده و موضوعات بسیار متنوعی را در این حوزه مطرح کرده است.
مطالعه و بررسی این سه فصل برای کسانی که به حوزهی مذاکره علاقه دارند، بسیار مفید خواهد بود (البته باید بگوییم که بحثهای بیزرمن دربارهی تصمیمهای سرمایهگذاری، در مقایسه با کتابهایی که اختصاصاً به بحث مالی رفتاری پرداختهاند، بسیار ساده و ابتدایی است).
بیزرمن همچنین فصل پایانی کتابش را به ابزارهای بهبود کیفیت تصمیم گیری اختصاص داده است (اگر چه در تمام کتاب، نکات فراوانی مطرح شده و احتمالاً انتخاب این عنوان برای فصل آخر، با توجه به محتوای نسبتاً سادهی آن، صرفاً برای شکیلتر شدنِ چارچوب کتاب بوده است).
کتاب تفکر سیستمی یا اگر دقیقتر بگوییم «مقدمهای بر تفکر سیستمی (به خاطر کلمهٔ Primer روی جلد)» تقریباً همهٔ موضوعات پایه در تفکر سیستمی را پوشش داده است. موضوعاتی که بیشتر آنها در درسهای تفکر سیستمی متمم مطرح شدهاند. بنابراین در اینجا به شرح مفصل مباحث کتاب نمیپردازیم و صرفاً به صورت فهرستوار موضوعات مطرح شده در آن را مرور میکنیم.
همانطور که میدانید، مباحث تفکر سیستمی در قلمروهای بسیار متنوعی قابل طرح هستند. یعنی با همان اصولی که میتوانید فروش یک محصول را تحلیل کنید، میتوانید اکوسیستم یک مرداب یا وضعیت یک جامعه را هم درک و پیشبینی کنید. مدوز هم با طرح مثالهای متنوع نشان داده که بلد است از این ظرفیت بزرگ به خوبی استفاده کند. امروز تقریباً همه پذیرفتهاند که تفکر سیستمی ابزاری حیاتی برای نگاه به بسیاری از چالشهای زیستمحیطی، سیاسی، اجتماعی، و اقتصادی در سراسر جهان است. سیستمها، بزرگ یا کوچک، به شیوهٔ مشابهی رفتار میکنند و شناختن این شیوهها مهمترین امید ما به ایجاد تغییرات ماندگار در همهٔ سطوح است.
اگر در یک شرکت (یا شرکت خودتان) کار میکنید و درگیر این موضوع هستید که سازمان و کسبوکار شما چگونه میتواند در ساختن جهانی بهتر نقش ایفا کند، اگر سیاستگذاری هستید که میبینید دیگران در برابر ایدههای خوب و نیتهای خیر شما مقاومت میکنند، اگر مدیری هستید که برای حل مشکلات شرکت و مجموعهٔ خود میکوشید و هر بار میبینید مشکلات تازهای از جای دیگری سر بر میآورند، […] اگر میخواهید بدانید چرا دستاوردهای حاصل از پیشرفت جامعهتان طی سالهای طولانی به سادگی با چند عکسالعمل سریع از دست میرود، و نیز در جایگاه شهروندی که میخواهد در جامعهای که به سرعت در حال جهانی شدن است، تأثیری مثبت و ماندگار ایجاد کند، این کتاب میتواند به شما کمک کند.
مسئلهی مستقل و مجزا وجود ندارد
مدوز بحث تفکر سیستمی را با این موضوع شروع میکند که بسیاری از مسائلی که ما در کسبوکارها، جوامع و سایر سیستمها میشناسیم، مستقل و مجزا نیستند. شما نمیتوانید یک مسئله را جدا کنید و بگویید من فقط میخواهم این را حل کنم و هیچ کاری به مسائل دیگری که با آن گره خورده ندارم. به عنوان مثال میگوید: «ویروس سرماخوردگی به شما حمله نمیکند. این شما هستید که شرایطی فراهم میکنید که ویروس بتواند درون شما رشد کند.» و در جای دیگر هم میگوید که «چه از نظر روانشناسی و چه از نظر سیاسی، ما ترجیح میدهیم ریشهٔ مشکلات را در آنجا جستجو کنیم و نه اینجا.» به عبارت دیگر، ترجیح میدهیم انگشت را به سمت دشمن بیرونی نشانه بگیریم تا ضعف درونی.
خِرد ما با تفکر سیستمی ناآشنا نیست
مدوز نکتهٔ مهم دیگری را هم بارها در کتاب خود به شکلهای مختلف مطرح میکند.
او معتقد است که نباید ریاضیات پیچیده و معادلات دینامیک سیستم این برداشت را در ما ایجاد کند که مباحث سیستمی بسیار جدید هستند و بشر پیش از این به آنها توجه نکرده است. اتفاقاً بسیاری از موضوعاتی که خرد عمومی ما آن را درک میکند و میپذیرد، پایهٔ سیستمی دارند.