[עושים תוכנה] עיבוד Big Data ב-Scale עצום!

כיום יש כלים רבים ונוחים לעיבוד מידע והפקת תובנות מעניינות ממנו, אבל מה עושים כשהמידע גדול מדיי בשביל המחשב שלנו, או כשזמן העיבוד עולה מדקות, לשעות לימים ואפילו שבועות? בפרק חדש בסדרת הBig Data נעשה zoom in לתחום העיבוד ומדברים על פתרונות שונים לעיבוד מידע בצורה מבוזרת, בעזרת mapReduce, וApache Spark. נגדיר מושגים שונים, רעיונות, בעיות ופתרונות לתחום עיבוד המידע

[עושים תוכנה] עיבוד Big Data ב-Scale עצום!
00:00 / 01:04
  • Facebook
  • Twitter
  • Instagram

חסויות הפרק

Image-empty-state.png