داده های حجیم Big Data به مجموعه بسیاز بزرگ از حجم داده ها با ساختاری پیچیده و دارای تنوع اطلاق مگردد بامشکلات پردازش داده ها و نیز ذخیره سازی آن روبه رو می باشد تجزیه و تحلیل این داده های حجیم نیازمند الگوریتم های پیشرفته می باشد تا بتواند همبستگی داده ها و نیز الگوهای منطقی داده ای را استخراج نماید امروزه جهت استخراج تحلیل درست از داده های حجیم یک سازمان از روش های پردازش Big Data استفاده می گردد. در این پست از سایت آغازه فیلم اموزشی الگوریتم های داده های حجیم Big Data را از دانشگاه صنعتی شریف تقدیم شما کاربران عزیز می کنیم مدس این مجموعه دکتر محمد علی آبام می باشد که عضو هیئت علمی دانشگاه صنعتی شریف می باشد که تخصص ایشان در الگوریتم های بهینه و تصادفی می باشد. امید است که این آموزش تصویری مورد توجه شما علاقه مندان حوزه پردازش داده های حجیم قرار بگیرد. در ادامه توضیح مختصری در باره Big Data ارائه می کنیم و سر فصل های این مجموعه آموزشی را ذکر می نمایم. در رابطه با موضوع بیگ دیتا پیشتر کتابی با عنوان داده کاوی در داده های حجیم در سایت قرار داده شده بود که توجه شما را برای مطالعه بیشتر به ان جلب می نماییم.
عنوان: الگوریتم های داده ها حجیم Big Data
زبان آموزش : فارسی
حجم فایل: ۳٫۳ گیگابایت
کلمات کلیدی: پایگاه داده های بزرگ, اموزش Big Data , الگوریتم داده های حجیم , فیلم Big Data , ویدیو بزرگ داده ها , الگوریتم ها، تجزیه و تحلیل و برنامه های کاربردی , دانلود فیلم بیگ دیتا , الگوریتم ها، تجزیه و تحلیل و کاربرد ها , دانلود کتاب Big Data
داده های حجیم Big Data چیست؟
کلان داده به (به انگلیسی: Big data) اصطلاحی است که به مجموعهٔ دادههایی اطلاق میشود که مدیریت، کنترل و پردازش آنها فراتر از توانایی ابزارهای نرمافزاری در یک زمان قابل تحمل و مورد انتظار است. مقیاس کلانداده، به طور مداوم در حال رشد از محدودهٔ چند ۱۰ ترابایت به چندین پتابایت، در یک مجموعهٔ داده واحد است. نمونههایی از کلانداده، گزارشهای وبی، سامانههای بازشناسی با امواج رادیویی، شبکههای حسگر، شبکههای اجتماعی، متون و اسناد اینترنتی، نمایههای جستجوهای اینترنتی، نجوم، مدارک پزشکی، آرشیو عکس، آرشیو ویدیو، پژوهشهای زمینشناسی و تجارت در مقیاس بزرگ هستند. کلانداده واژهای برای مجموعه دادههای بسیار بزرگ، یا پیچیده است که تجهیزات تحلیل دادههای مرسوم ناکافی میباشد. چالشها شامل آنالیزها، تصور، گزینش دادهها، تحقیق، اشترک گذاری، ذخیره، مبادله، تصور و استقلال اطلاعات میباشند. عبارت اغلب بر سادهسازی استفاده از تحلیلهای پیشگویانه یا روشهای پیشرفته دیگر برای استخراج ارزش اطلاعات، اشاره دارد و به ندرت برای مجموعه اطلاعات اندازه خاصی در نظر میگیرد. دقت موجود در کلانداده ممکن است به اطمینان بیشتر بر تصمیمگیری شود؛ و تصمیمات بهتر میتواند به معنای کارایی عملیاتی بزرگتر، کاهش هزینه و کاهش ریسک باشد.
منبع: ویکی پدیا
تاریخچه داده های حجیم Big Data :
IBM نشان داد که هر روز ۲٫۵ اگزا بایت داده تولید میشود و همچنین %۹۰ از داده ها در ۲ سال اخیر تولید شده است. یک کامپیوتر شخصی حدود ۵۰۰ گیگا بایت (۱۰ به توان ۹ بایت) داده نگه میدارد ، بنابراین برای ذخیره سازی همه داده های دنیا به حدود ۲۰ میلیارد PC نیاز است. در گذشته پروسه آشکارسازی ژنهای بشر تقریباً ۱۰ سال وقت میگرفت ، هم اکنون بیشتر از یک هفته نمیشود. داده های چند رسانه ای وزن بزرگی در ترافیک اینترنت دارند و انتظار میرود به %۷۰ در سال ۲۰۱۳ افزایش یابد. فقط google بیش از یک میلیون سرور در دور جهان دارد. ۶ میلیارد اشتراک موبایل در دنیا وجود دارد و هر روز ۱۰ میلیارد متن پیام (message) ارسال میشود. در سال ۲۰۲۰ ، ۵۰ میلیارد دستگاه به شبکه ها و اینترنت متصل خواهند بود.
در سال ۲۰۱۲ مواجهه بشر با big data به عنوان یک پروژه جهانی انجام شد با مرکزیت مجموعه ای بلادرنگ که مقدار بزرگی از داده ها را نمایش میدهد و تحلیل میکند. بر اساس این پروژه خیلی آمارها نتیجه گرفته شد. Facebook ، نهصد و نود و پنج میلیون حساب کاربری فعال ماهانه با ۷۰ زبان دارد ، ۱۴۰ میلیارد تصویر آپلود شده است ، ۱۲۵ میلیارد اتصالات دوستها و روزانه ۳۰ میلیارد قطعه های با محتوا و ۲٫۷ میلیارد like و comment ارسال میشود. هر دقیقه ۴۸ ساعت ویدئو آپلود میشود و هر روز ۴ میلیارد view در YouTube اجرا میشود. Google خدمات بسیاری را پشتیبانی میکند از جمله ۷٫۲ میلیارد page را هر روز مونیتور میکند و همچنین ۲۰ پتا بایت (۱۰ به توان ۱۵ بایت) داده را روزانه به ۶۶ زبان ترجمه میکند. یک میلیارد Tweet هر ۷۲ ساعت از بیشتر از ۱۴۰ میلیون کاربر فعال در Twitter داریم. ۵۷۱ وبسایت جدید در هر دقیقه ساخته میشود. در حدود دهه بعد ، تعداد اطلاعات ۵۰ برابر افزایش پیدا خواهد کرد اما تعداد متخصصان تکنولوژی اطلاعات که همه آن اطلاعات را کنترل میکنند ، ۱٫۵ برابر افزایش پیدا خواهد کرد.در قسمت ۱ پیامدهای اساسی ، مزایا ، چالشها ، بررسی نتایج ، مثالها ، روشها و اکتشاف دانش از big data ارائه داده شده است و در قسمت ۲ پیامدهای مهم در پیامدهای امنیتی بازبینی میشود و قسمت ۳ مزایا ، موانع بالفعل ، چالشها و موانع big data را ارائه میدهد و قسمت ۴شامل کارها میباشد.
منبع: وب سایت تخصصی فناوری اطلاعات ایران
سر فصل های این مجموعه فیلم آموزشی:
جلسه اول – مقدمه
جلسه دوم – مرتب سازی
external data structure – جلسه سوم
جلسه چهارم – weighted B-tree
جلسه پنجم – persistant B-tree
جلسه ششم – buffer technique
جلسه هفتم – internal trees
جلسه هشتم –
جلسه نهم – الگوریتم های درخت
جلسه دهم – تور اویلری، time formal processing، simulation
جلسه یازدهم – connected components، minimum spanning tree
جلسه دوازدهم – BFS
جلسه سیزدهم – DFS
جلسه چهاردهم – cache-oblivious
جلسه پانزدهم – ordered files، cache-oblivious
جلسه شانزدهم – streaming model ، Majority problem
جلسه هفدهم – comunication theory ، lower bounds
جلسه هجدهم – تخمین تعداد اعداد متمایز در مدل streaming
جلسه نوزدهم – Finding frequent items via sketching
جلسه بیستم – محاسبه تعداد مثلث ها
قابل توجه کاربران شما می توانید این فیلم را یکجا و بطور کامل از لینک زیر دریافت کنید.
لینک مستقیم : ۹۰۰ مکابایت
برای دریافت فایل قسمت اول اینجا کلیک کنید. (لینک مستقیم)
برای دریافت فایل قسمت دوم اینجا کلیک کنید. (لینک مستقیم)
برای دریافت فایل قسمت سوم اینجا کلیک کنید. (لینک مستقیم)
برای دریافت فایل قسمت چهارم اینجا کلیک کنید. (لینک مستقیم)
برای دریافت فایل قسمت پنجم اینجا کلیک کنید. (لینک مستقیم)
بدون دیدگاه