ورودی خروجی Hadoopnasser rezaeiاین اسلاید به ورودی و خروجی در هدوپ اختصاص داده شده است.
فصل 5 کتاب Hadoop the difinitive guide
مباحثی نظیر تضمین صحت داده ها، فشرده سازی، استریمینگ، سریال سازی و فرمت فایل های داده ای پوشش داده شده است
Yarn مروری بر nasser rezaeiمروری بر سیستم مدیریت کلاستر یارن، یارن فریم ورک محبوبی است که به عنوان مدیر کلاستر و منابع برای فریم ورک های سطح بالایی همچون اسپارک و تز استفاده می شود
Introduction to Apache Hadoop in Persian - آشنایی با هدوپMobin Ranjbarآشنایی با هدوپ - مرجع هدوپ ایران - شرکت مهندسی نرم افزار ایده پردازان فرافکر
www.hadoop.ir
1st Hadoop Tehran Workshop - اسلاید اولین کارگاه آموزش هدوپ تهرانFarafekr Technology1st Hadoop Tehran Workshop - اسلاید اولین کارگاه آموزش هدوپ تهران
www.hadoop.ir
Introduction to Hadoop and Spark - اسلاید کارگاه آموزش هدوپ و اسپارک شیرازMobin RanjbarIntroduction to Hadoop and Spark - اسلاید کارگاه آموزش هدوپ و اسپارک شیراز
مرجع هدوپ ایران
www.hadoop.ir
دانلود فیلم کارگاه از : download.hadoop.ir
Hadoop Case Studies in the Real World in Persian - کاربردهای هدوپ در دنیای واقعیMobin RanjbarHadoop Case Studies in the Real World in Persian - کاربردهای هدوپ در دنیای واقعی
Big Data Processing in Cloud Computing EnvironmentsFarzad NozarianThis is my Seminar presentation, adopted from a paper with the same name (Big Data Processing in Cloud Computing Environments), and it is about various issues of Big Data, from its definitions and applications to processing it in cloud computing environments. It also addresses the Big Data technologies and focuses on MapReduce and Hadoop.
آموزش دیتاگارد در اوراکلfaradarsهدف از این آموزش نحوه پیاده سازی دیتاگارد می باشد که یکی از پیشرفته ترین مباحث دیتابیس به شمار می رود و در این آموزش به صورت گام به گام مراحل پیاده سازی دیتاگارد شرح داده شده است که از آن می توانید برای پیاده سازی عملیاتی استفاده کنید.
سرفصل هایی که در این آموزش به آن پرداخته شده است:
درس یکم: آشنایی با مفاهیم دیتاگارد
درس دوم: آماده سازی و نصب اوراکل دیتابیس
درس سوم: پیکربندی دیتابیس اصلی و جایگزین
درس چهارم: پیکربندی ابزار Data Guard Broker برای دیتابیس ها و تست برقراری ارتباط آن
...
برای توضیحات بیشتر و تهیه این آموزش لطفا به لینک زیر مراجعه بفرمائید:
http://faradars.org/courses/fvorc9410
DB IndexingMahmood Neshati (PhD)درس ذخیره و بازیابی یکی از پیشنیاز های مهم درس پایگاه داده است. در این اسلاید ها، بحث ساختار فایل و معماری DBMS شرح داده می شود و دانشجویان با انواع روش های شاخص گذاری مانند Clusterd Index و Non-Clustered Index آشنا می شوند.
اگر کامنتی برای بهبود اسلایدها دارید لطفا اقدام کنید.
06 hpc library_fundamentals_of_parallelism_and_code_optimization-www.astek.iraminnezaratمجموعه ارائه های بنده درباره موضوع تکنولوژیهای برنامه نویسی موازی و همگرایی آن با بیگ دیتا
HPC and Big Data
دکتر امین نظارات
aminnezarat@gmail.com
(Linux Ubuntu Guide in Persian- Basic)رهنمود سیستم عامل اوبنتو فارسی- محب ال...Muhibullah Amanمجموعهء ذیل مهمر
4391 در لابراتوار - سیستم عامل لینوکس بین سالهای 4393 AT&T توسط Kenneth Thompson, Dennis Ritchie
وغیره افراد ، بنابر اهداف زیر ساخته شد:
آموزش ذخیره و بازیابی اطلاعات - درس دومfaradarsمجموعه فیلم های آموزشی درس ذخیره و بازیابی اطلاعات، با تدریس مهندس فرشید شیرافکن، با بررسی کامل مباحث درسی
Ceph: A Powerful, Scalable, and Flexible Storage SolutionYashar Esmaildokht## Ceph: A Powerful, Scalable, and Flexible Storage Solution
Ceph is an open-source, distributed storage platform that offers a range of features, including object storage, block storage, and file systems. It provides a highly scalable, reliable, and flexible solution for managing your data.
Ceph's Key Components:
* RADOS (Reliable Autonomic Distributed Object Storage): Ceph's core storage component. It provides object storage capabilities and forms the basis for other services.
* RBD (RADOS Block Device): Ceph's block storage service. Allows you to create and manage block devices that can be attached to virtual machines or containers.
* CephFS (Ceph File System): Ceph's distributed file system. Offers scalable and reliable shared file system access for applications and users.
Ceph Backfill:
Backfill is a process used to repopulate data onto newly added OSDs (Object Storage Devices) in a Ceph cluster. Here's how it works:
1. Data Imbalance: When new OSDs are added, the cluster may have an imbalance in data distribution. Some OSDs might have more data than others.
2. Backfill Process: Ceph identifies the underutilized OSDs and starts copying data from overloaded OSDs to these new OSDs.
3. Data Balancing: The backfill process aims to achieve an even distribution of data across all OSDs in the cluster.
Ceph Scrub:
Scrubbing is a data integrity check that Ceph performs to detect and repair errors in stored data. Here's the process:
1. Data Verification: Ceph compares the data stored on different OSDs that hold replicas of the same object.
2. Error Detection: Any discrepancies between the data replicas are flagged as errors.
3. Data Repair: Ceph attempts to repair the errors by copying the correct data from another OSD.
Ceph Erasure Coding (EC):
Erasure coding is a technique used to increase data resilience and reduce storage overhead in a Ceph cluster.
* Data Chunking: Data is divided into smaller chunks, and a parity chunk is generated.
* Data Distribution: These chunks and parity chunks are distributed across multiple OSDs in the cluster.
* Data Recovery: Even if some OSDs fail, the lost data can be recovered from the remaining chunks and parity chunks.
Benefits of EC:
* Increased Data Resilience: Can tolerate more OSD failures without losing data.
* Reduced Storage Overhead: Reduces the total storage capacity required for storing data replicas.
* Improved Performance: Can enhance performance by spreading the data load across more OSDs.
Understanding Ceph, backfill, scrub, and EC is crucial for efficient operation and maintenance of a Ceph cluster. These mechanisms ensure data integrity, availability, and scalability, making Ceph a robust and powerful solution for storage management.
هسته لینوکس و کامپایل آنtuxitopیک اسلاید ۲۰ صفحهای در مورد هستهی لینوکس و وظایف آن و همچنین نحوهی کامپایل یک هستهی و نیازمندیهای کاربر جهت کامپایل هستهی لینوکس. توضیحات کامل این ارایه در قالب فایل پیدیاف در آدرس http://www.slideshare.net/tuxitop/compile-a-linux-kernel قابل مشاهده و دانلود است.
این ارایه در تاریخ ۷ خرداد در گروه کاربران لینوکس مشهد ارایه شد که گزارش جلسهی مذکور از طریق آدرس http://www.mashhadlug.org/fa/node/245 قابل مشاهده است.
Introduction to Hadoop and Spark - اسلاید کارگاه آموزش هدوپ و اسپارک شیرازMobin RanjbarIntroduction to Hadoop and Spark - اسلاید کارگاه آموزش هدوپ و اسپارک شیراز
مرجع هدوپ ایران
www.hadoop.ir
دانلود فیلم کارگاه از : download.hadoop.ir
Hadoop Case Studies in the Real World in Persian - کاربردهای هدوپ در دنیای واقعیMobin RanjbarHadoop Case Studies in the Real World in Persian - کاربردهای هدوپ در دنیای واقعی
Big Data Processing in Cloud Computing EnvironmentsFarzad NozarianThis is my Seminar presentation, adopted from a paper with the same name (Big Data Processing in Cloud Computing Environments), and it is about various issues of Big Data, from its definitions and applications to processing it in cloud computing environments. It also addresses the Big Data technologies and focuses on MapReduce and Hadoop.
آموزش دیتاگارد در اوراکلfaradarsهدف از این آموزش نحوه پیاده سازی دیتاگارد می باشد که یکی از پیشرفته ترین مباحث دیتابیس به شمار می رود و در این آموزش به صورت گام به گام مراحل پیاده سازی دیتاگارد شرح داده شده است که از آن می توانید برای پیاده سازی عملیاتی استفاده کنید.
سرفصل هایی که در این آموزش به آن پرداخته شده است:
درس یکم: آشنایی با مفاهیم دیتاگارد
درس دوم: آماده سازی و نصب اوراکل دیتابیس
درس سوم: پیکربندی دیتابیس اصلی و جایگزین
درس چهارم: پیکربندی ابزار Data Guard Broker برای دیتابیس ها و تست برقراری ارتباط آن
...
برای توضیحات بیشتر و تهیه این آموزش لطفا به لینک زیر مراجعه بفرمائید:
http://faradars.org/courses/fvorc9410
DB IndexingMahmood Neshati (PhD)درس ذخیره و بازیابی یکی از پیشنیاز های مهم درس پایگاه داده است. در این اسلاید ها، بحث ساختار فایل و معماری DBMS شرح داده می شود و دانشجویان با انواع روش های شاخص گذاری مانند Clusterd Index و Non-Clustered Index آشنا می شوند.
اگر کامنتی برای بهبود اسلایدها دارید لطفا اقدام کنید.
06 hpc library_fundamentals_of_parallelism_and_code_optimization-www.astek.iraminnezaratمجموعه ارائه های بنده درباره موضوع تکنولوژیهای برنامه نویسی موازی و همگرایی آن با بیگ دیتا
HPC and Big Data
دکتر امین نظارات
aminnezarat@gmail.com
(Linux Ubuntu Guide in Persian- Basic)رهنمود سیستم عامل اوبنتو فارسی- محب ال...Muhibullah Amanمجموعهء ذیل مهمر
4391 در لابراتوار - سیستم عامل لینوکس بین سالهای 4393 AT&T توسط Kenneth Thompson, Dennis Ritchie
وغیره افراد ، بنابر اهداف زیر ساخته شد:
آموزش ذخیره و بازیابی اطلاعات - درس دومfaradarsمجموعه فیلم های آموزشی درس ذخیره و بازیابی اطلاعات، با تدریس مهندس فرشید شیرافکن، با بررسی کامل مباحث درسی
Ceph: A Powerful, Scalable, and Flexible Storage SolutionYashar Esmaildokht## Ceph: A Powerful, Scalable, and Flexible Storage Solution
Ceph is an open-source, distributed storage platform that offers a range of features, including object storage, block storage, and file systems. It provides a highly scalable, reliable, and flexible solution for managing your data.
Ceph's Key Components:
* RADOS (Reliable Autonomic Distributed Object Storage): Ceph's core storage component. It provides object storage capabilities and forms the basis for other services.
* RBD (RADOS Block Device): Ceph's block storage service. Allows you to create and manage block devices that can be attached to virtual machines or containers.
* CephFS (Ceph File System): Ceph's distributed file system. Offers scalable and reliable shared file system access for applications and users.
Ceph Backfill:
Backfill is a process used to repopulate data onto newly added OSDs (Object Storage Devices) in a Ceph cluster. Here's how it works:
1. Data Imbalance: When new OSDs are added, the cluster may have an imbalance in data distribution. Some OSDs might have more data than others.
2. Backfill Process: Ceph identifies the underutilized OSDs and starts copying data from overloaded OSDs to these new OSDs.
3. Data Balancing: The backfill process aims to achieve an even distribution of data across all OSDs in the cluster.
Ceph Scrub:
Scrubbing is a data integrity check that Ceph performs to detect and repair errors in stored data. Here's the process:
1. Data Verification: Ceph compares the data stored on different OSDs that hold replicas of the same object.
2. Error Detection: Any discrepancies between the data replicas are flagged as errors.
3. Data Repair: Ceph attempts to repair the errors by copying the correct data from another OSD.
Ceph Erasure Coding (EC):
Erasure coding is a technique used to increase data resilience and reduce storage overhead in a Ceph cluster.
* Data Chunking: Data is divided into smaller chunks, and a parity chunk is generated.
* Data Distribution: These chunks and parity chunks are distributed across multiple OSDs in the cluster.
* Data Recovery: Even if some OSDs fail, the lost data can be recovered from the remaining chunks and parity chunks.
Benefits of EC:
* Increased Data Resilience: Can tolerate more OSD failures without losing data.
* Reduced Storage Overhead: Reduces the total storage capacity required for storing data replicas.
* Improved Performance: Can enhance performance by spreading the data load across more OSDs.
Understanding Ceph, backfill, scrub, and EC is crucial for efficient operation and maintenance of a Ceph cluster. These mechanisms ensure data integrity, availability, and scalability, making Ceph a robust and powerful solution for storage management.
هسته لینوکس و کامپایل آنtuxitopیک اسلاید ۲۰ صفحهای در مورد هستهی لینوکس و وظایف آن و همچنین نحوهی کامپایل یک هستهی و نیازمندیهای کاربر جهت کامپایل هستهی لینوکس. توضیحات کامل این ارایه در قالب فایل پیدیاف در آدرس http://www.slideshare.net/tuxitop/compile-a-linux-kernel قابل مشاهده و دانلود است.
این ارایه در تاریخ ۷ خرداد در گروه کاربران لینوکس مشهد ارایه شد که گزارش جلسهی مذکور از طریق آدرس http://www.mashhadlug.org/fa/node/245 قابل مشاهده است.
آموزش ذخیره و بازیابی اطلاعات - درس پنجمfaradarsمجموعه فیلم های آموزشی درس ذخیره و بازیابی اطلاعات، با تدریس مهندس فرشید شیرافکن، با بررسی کامل مباحث درسی
مسیردهی و پروتوکولهای مسیریابیMuhibullah Amanروتینگ پروتوکولها عبارت از پروتوکولهای اند که به منظور کشف و مسیردهی پاکت ها بین شبک های مختلف استفاده میگردند.
آموزش مدیریت بانک اطلاعاتی اوراکل - بخش چهاردهمfaradarsبانک اطلاعاتی اوراکل بی شک یکی از قدرتمندترین نرم افزارها برای مدیریت اطلاعاتی با حجم بسیار بالا می باشد هدف از این آموزش یادگیری مفاهیم پیچیده معماری و چالش های مدیریتی دیتابیس است که به شما کمک خواهد کرد تا به سرعت مطالب را فرا گرفته و به اهداف خود نزدیک شوید .
سرفصل هایی که در این آموزش به آن پرداخته شده است:
معماری دیتابیس اوراکل
آماده سازی محیط بانک اطلاعاتی
ایجاد دیتابیس اوراکل
مدیریت بخش حافظه ای اوراکل
پیکربندی محیط شبکه در اوراکل
...
برای توضیحات بیشتر و تهیه این آموزش لطفا به لینک زیر مراجعه بفرمائید:
http://faradars.org/courses/fvorc9408