Author name: Hind Althabi

AI, التعلم العميق, الذكاء الاصطناعي, تعلم الالة

الذكاء المعزز في التحول الرقمي

ما هو الذكاء المعزز؟ يعتبر الذكاء المعزز جزء من الذكاء الاصطناعي ويعتمد بتنفيذ العمليات على التعاون بين الذكاء البشري و ذكاء الالة. يستهدف الذكاء المعزز تحسين و تمكين مخرجات الأشخاص بدون الاستغناء عنهم. و ذلك باستخدام تقنيات و خوارزميات تعلم الالة و التعلم العميق لتدعم عملية اتخاذ القرارات وتساهم في مخرجاتها. يلعب الذكاء المعزز دور مهم في عملية التحول الرقمي من خلال تحسين المخرجات و أتمتة العمليات ودعم عمليات اتخاذ القرار. من مميزات الذكاء المعزز: التكيف: مثلما يتعلم الإنسان من تجاربه ويعدل سلوكه من خلال تجاربه, كذلك الأنظمة والآلات تتعلم من البيانات الجديدة او تفضيلات المستخدمين. مع مرور الوقت و المدخلات الجديدة، تتكيف هذه الأنظمة بشكل افضل لتلبية احتياجات المستخدمين وتقديم حلول أكثر دقة. زيادة الإنتاجية: الذكاء الاصطناعي ليس بديلا عن الإنسان، بل هو أداة تساعد في اتخاذ قرارات مدروسة و فعالة من خلال عملية تحليل البيانات و إيجاد الأنماط المخفية و استخراج الرؤى التي تمكن الالة من فهم ودراسة الحالة بشكل أعمق مما يساهم في دعم القرارات التي نتخذها في حياتنا اليومية أو في مجال الأعمال. التعاون: الذكاء الاصطناعي لا يحل محل البشر، بل يعزز قدرتهم على الابتكار واتخاذ القرارات. التعاون بين الإنسان والذكاء الاصطناعي يشبه العمل الجماعي, حيث تقدم الالة القوة الحسابية والسرعة، و يقدم الإنسان الإبداع والرحمة والحكمة و  بالتعاون  يمكن تحقيق نتائج فعالية للكثير من المجالات. حالات استخدام الذكاء المعزز التوأم الرقمي لنظام حركة المرور استخدام للذكاء المعزز لإنشاء توائم رقمية لنظام حركة المرور و محاكاة الظروف الواقعية مثل إغلاق الطرق ومراقبة اوقات الازدحام. تتم هذه العملية من خلال دمج البيانات في الوقت الفعلي من أجهزة الاستشعار والكاميرات و التنبؤ بسير حركة المرور من خلال استخدام النماذج المدعومة بالذكاء الاصطناعي. يمكن للنظام بتقديم طرق مقترحه بديلة لتقليل الازدحام  و المساعدة في تحسين البنية التحتية وإدارة حركة المرور بسلاسة التوأم الرقمي لصحة المريض بناء نموذج افتراضي محاكي لجسم المرضى ليساعد الذكاء المعزز في تحليل هذه البيانات للتنبؤ بالمشاكل الصحية و المساعدة في التشخيص وتقديم الرعاية الطبية المناسبة.. يتيح التوأم الرقمي لمقدمي الرعاية الصحية اتخاذ قرارات متخصصة بناء على المعطيات و المؤشرات خاصة لكل حالة مريض مما يساهم في تحسين ورفع جودة الرعاية الصحية والكشف المبكر عن الأمراض أنظمة التوصية يعزز الذكاء المعزز أنظمة التوصية من خلال دمج خوارزميات الذكاء الاصطناعي مع التغذية الراجعة لاختيارات الاشخاص و يسمح لإنشاء اقتراحات متخصصة لكل فرد بدقة عالية. تستخدم أنظمة التوصية في التطبيقات التجارية و منصات المحتوى وغيرها من المجالات التي تعتمد على تفضيلات المستخدم و تحليلها من ثم التنبؤ باختياراته. و تمتاز هذه الانظمة بتحسين تجربة المستخدم و زيادة التفاعل مع هذا التعاون بين الذكاء الاصطناعي والتغذية الراجعة البشرية يؤدي إلى تحسين تجربة المستخدم وزيادة التفاعل مع المحتوى و الوصول للمنتجات المناسبة للعميل 

البيانات

مكتبات في تحليل البيانات

تحليل البيانات هي عملية تحويل البيانات الخام بعدة صيغ إلى معلومات قيمة يمكن الاستناد عليها و استخدامها لاتخاذ القرارات. تساعد المكتبات و أطر العمل و الأدوات على التعامل مع البيانات الضخمة والمعقدة بسهولة وفعالية. باستخدام المكتبات تمكنا من تحضير البيانات و تجهيزها  لعملية التنظيف، التحليل ثم استخراج الرسوم البيانية و بناء النماذج عليها بشكل يسير و فعال. و من أبرز المكتبات و أطر العمل المستخدمة في تحليل البيانات: NumPy من أهم مكتبات بايثون للحوسبة و لتنفيذ الحسابات العددية و تدعم المصفوفات متعددة الأبعاد. وهي أداة أساسية للتعامل مع البيانات الرقمية، الجبر الخطي و العمليات الإحصائية. Pandas مكتبة تستخدم لمعالجة وتحليل البيانات حيث توفر هياكل بيانات مثل Data Frame للتعامل مع البيانات في الجدول. و تستخدم في عملية تنظيف البيانات و تحويل صيغ البيانات و المساعدة في استكشاف توجهات البيانات Dask مكتبة لمعالجة البيانات الضخمة من خلال تجزئة المهام و تنفيذها في نفس الوقت, تستخدم مع مكتبة Pandas و NumPy، مما تساهم بالتعامل مع مجموعات البيانات الكبيرة. SciPy مكتبة للحوسبة تحتوي على العديد من الدوال و الخوارزميات المبنية على مكتبة NumPy و توفر SciPy مجموعة من المميزات لاستخدامها في الإحصاء ومعالجة الإشارات. ايضا تسهل التعامل مع البيانات المعقدة وإنشاء رسومات بيانية دقيقة. Tensorflow من أشهر المكتبات في تعلم الآلة و علم البيانات و تم تطويرها بواسطة Google و تستخدم في العديد من التطبيقات منها معالجة البيانات الكبيرة, تحليل البيانات الزمنية, تحليل النصوص و الصور و البيانات في نفس اللحظة و تصوير البيانات. و من مميزاتها تدعم الحوسبة المتوازية و تكاملها مع المكتبات و الأدوات مثل Keras و NumPy و Pandas. ايضا تمتاز بيئة عمل مرئية باستخدام TensorBoard Vaex مكتبة تعزز كفاءة وسرعة تحليل البيانات الضخمة بدون تحميل البيانات بالكامل إلى الذاكرة مما يمكن بمعالجة مجموعات بيانات ضخمة على جهاز واحد. Matplotlib مكتبة لإنشاء الرسوم البيانية و تقوم بإنشاء مجموعة متنوعة من الرسوم البيانية، الرسوم الخطية البسيطة و الرسوم المعقدة ثلاثية الأبعاد. Plotly مكتبة لإنشاء رسوم بيانية و لوحات تحكم تفاعلية ويمكن تخصيصها باستخدام انواع مختلفة من الرسومات البيانية و دمج استخدامها مع مكتبات مثل pandas و numpy Bokeh مكتبة لإنشاء رسومات بيانية تفاعلية يمكن عرضها على صفحات المواقع. تستخدم لبناء رسومات بيانية تفاعلية بشكل ديناميكي وتمتاز بالمرونة بإنشاء مجموعة متنوعة من الرسومات البيانية و تكاملها  مع المكتبات مثل numpy و pandas. Scrapy مكتبة لاستخراج البيانات من الويب و تمتاز بسرعتها وكفاءتها وتستخدم لبناء برامج زحف Spider Bots حيث يمكنها استخراج البيانات المهيكلة من صفحات الويب. ايضا تمكن المطورين من جمع البيانات من واجهات برمجة التطبيقات APIs. BeautifulSoup مكتبة تستخدم لاستخراج صيغ بيانات متعددة و جمعها من صفحات المواقع و تمتاز بواجهة سلسة لاستخراج البيانات و مرنة الاستخدام مما تسمح بكتابة أكواد بسيطة لاستخراج البيانات.و يمكنها تحليل وتنظيم البيانات من صفحات المواقع LightGBM اطار عمل تم تطويره من شركة Microsoft تساهم في تعزيز السرعة وكفاءة الذاكرة في تحليل البيانات و تستخدم خوارزمية gradient-boosting مما يمكنها على التعامل مع البيانات الضخمة في وقت قياسي. تمتاز المكتبة بسهولة تكاملها مع المكتبات الاخرى مثل Pandas Scikit-Learn و التعامل مع Hyperparameters لتعديلها بما يتناسب مع المشروع والبيانات. ” Apache Spark “PySpark إطار عمل لمعالجة البيانات الضخمة باستخدام تقنية الحوسبة الموزعة في الخوادم, تستخدم في معالجة وتحليل البيانات الضخمة. يمتاز بالتعامل مع عدة صيغ من البيانات و يمكن استخدامه في عدة منها batch processing و stream processing Apache Flink إطار عمل لمعالجة البيانات الضخمة بشكل فوري و يدعم استخدامه في batch processing و يتكامل مع عدة انظمه مثل Kafka و Hadoop   مصادر مقترحة لتعلم المكتبات: Numpy Pandas Dask SciPy Vaex Apache Flink

الذكاء الاصطناعي, تعلم الالة

ML Pipeline سير عمل التعلم الآلي

تكمن أهمية ML Pipeline  بأنها أحد المراحل المهمة في تطوير نظام التعلم الآلي. حيث أنها تساعد علماء البيانات و المهندسين في التحكم بالمشروع بجميع المراحل و ستساعد من بناء نماذج ذات دقة عالية و تسمح بالتوسع بالمستقبل. جمع البيانات Data Collection بعد تحديد الغرض من بناء نموذج أو مشروع تعلم الالة سواء كان لحل مشكلة أو لتحسين هدف تجاري ف تكون أول مرحلة يركز عليها المطور هو جمع البيانات وهي الركيزة الأولى التي يجب ان تأخذ الوقت الكافي من المشروع و ذلك لزيادة دقة النموذج بعد تدريبه. ضرورة التركيز بنوعية البيانات التي يتم جمعها أن تقوم بحل الهدف من النموذج و أن تكون صيغة البيانات مناسبة.هناك العديد من المصادر التي تساعد في عملية جمع الببيانات:١- مجموعة البيانات الجاهزه مثل kaggle و Roboflow٢- تصفح الويب (Web Crawling): استخدام برامج لجمع البيانات من مواقع الويب المختلفة٣- تجريف البيانات (Data Scraping): استخراج المعلومات من صفحات الويب بطريقة منظمة٤- بناء مجموعة بيانات يدويا (Building a Dataset): تجميع البيانات في مجموعة بيانات موحدة من خلال البحث عن مصادر البيانات من خلال المواقع و حفظها٥- استخدام واجهات برمجة التطبيقات (APIs): الحصول على البيانات من خدمات أو تطبيقات خارجية عبر API٦- البيانات الناتجة عن عمليات الشركة أو الأنشطة: مثل جمع آراء العملاء عبر مراكز الاتصال  معالجة البيانات Data Processing عند الانتهاء من جمع البيانات يأتي دور معالجتها و تنظيفها من أجل تجهيزها في تدريب النموذج model.  وهي عملية لضمان جاهزية البيانات و تؤثر في دقة النموذج.١-  تنظيف البيانات Data Cleaning من خلال إزالة القيم المفقودة أو استبدالها بأخذ متوسط القيم, تصحيح صيغ البيانات, حذف السجلات المكررة٢- معالجة القيم المتباينة Handling Outliers خلال تحليل البيانات قد تواجهك  قيم متطرفة (outliers) مثل متوسط المبيعات خلال اليوم ١٠٠٠ إلى ٢٠٠٠ ووجدت قيم ١٠ أو ١٠٠٠٠٠٣- تحويل البيانات Data Transformation تحويل صيغة أو هيكلة البيانات إلى الصيغة المناسبة لاستخدامها في النموذج.  هناك أنواع لتحويل البيانات منها Data Normalization تطبيع البيانات, Format Conversion تحويل الصيغ و الترميز الأحادي One-Hot Encoding  هندسة الميزات Feature Engineering  هندسة الميزات هي عملية تعديل أو حذف أو جمع بيانات بهدف إنشاء بيانات جديدة تساعد في تحسين و دقة النموذج و تقليل تحيز النتائج.    تقسيم البيانات Data Splitting بعد الانتهاء من تجهيز البيانات و معالجتها يأتي الآن دور تقسيمها بنسب معينة من أجل استخدامها في تدريب النموذج و اختباره.- مجموعة التدريب Training Set: الهدف منها لتدريب النموذج وتشكل نسبتها 70-80% من البيانات.- مجموعة التحقق Validation Set :  تستخدم لتقييم أداء النموذج خلال التدريب من خلال ضبط وتحسين الخوارزمية و نسبتها  10-15% من البيانات.- مجموعة الاختبار Test Set:  توفر تقييم غير متحيز لأداء النموذج من خلال استخدام بيانات جديدة  و هذه يضمن قدرة النوذج على التوسع والتعميم, و نسبتها  10-15% من البيانات.   اختيار النموذج Model Selection اختيار النموذج المناسب يعتمد على هدف المشروع و صيغة البيانات التي تم تجهيزها, و بالبداية نوضح أنواع  تعلم الآلة هي Supervised Learning  التعلم تحت المراقبة ,  Unsupervised Learning التعلم غير المراقب, Semi-Supervised Learning التعلم شبه المراقب و Reinforcement Learning التعلم التعزيزي.سيتم شرح كل نوع منها مستقبلا بإذن الله  و سنذكر بعض الخوارزميات في هذه المقالة.  مهمة التصنيف Classification Tasks : وهي تستخدم تقنيات مختلفة لتحليل البيانات وتحديد الفئات  وبعض الخوارزميات المشهورة في مهمة التصنيف – Support Vector Machines (SVM)- Logistic Regression- Decision Trees مهمة الانحدار Regression Tasks: تستخدم بتقدير القيم العددية بدلاً من التصنيف الفئات, بعض الخوارزميات الشائعة:- Linear Regression- Random Forest- Polynomial Regression  مهمة التجميع Clustering Tasks: الهدف هو تقسيم مجموعة البيانات إلى مجموعات clusters على أن تكون العناصر داخل كل مجموعة متشابهة قدر الإمكان مثل: – K-Means – Hierarchical Clustering   تدريب النموذج و تكييفه  Model Training and Fitting  هي عملية يتم فيها تغذية خوارزميات تعلم الآلة  بالبيانات التي تم تجهيزها بهدف تعليم النموذج على البيانات و اكتشاف الأنماط  والاتجاهات. يتم تعديل وزن النموذج model weights  بناءً على الأخطاء التي تظهر أثناء التعلم، مما يمكنه من تحسين دقته مع مرور الوقت.الهدف هو تعليم النموذج كيفية التنبؤ بالنتائج بناءً على البيانات المدخلة و تعديل parameters المعلمات لتقليل نسبة الخطأ ين توقعاته والنتائج الفعلية. تقييم النموذج Model Evaluation تقييم أداء النموذج من خلال استخدام بيانات الاختبار و التحقق باستخدام بعض المقاييس منها accuracy, Recall  and F1 score  نشر النموذج و مراقبته Deployment and Monitoring رفع النموذج في بيئة الإنتاج الفعلية حيث يمكنه التعامل مع بيانات جديدة و تقديم النتائج و التوقعات. و تكمن أهميه متابعة وقياس أداء النموذج بعد نشره للتأكد من أنه يعمل كما هو متوقع و يتم تحسسينه  بناء على النتائج، قد يحتاج النموذج إلى إعادة التدريب  باستخدام بيانات جديدة لضمان استمرارية دقة الأداء.

google cloud
البيانات, الذكاء الاصطناعي, تعلم الالة

من البيانات إلى النماذج باستخدام Google Cloud

في رحلة بناء حلول و مشاريع الذكاء الاصطناعي تعتبر البيانات هي الأساس الذي يتم من خلاله تطوير النموذج سواء في مرحلة التدريب أو بعدها. تبدأ من خلال جمع بيانات كبيرة و معالجتها ثم تحليلها و تجهيزها بصيغ معينة تناسب النموذج المراد استخدامه. Google Cloud توفر بيئة متكاملة تتضمن العديد من الخدمات و المنتجات التي تساعد في تطوير حلول و مشاريع ذكاء الاصطناعي. حيث تدعم عملية تحليل البيانات وتدريب النماذج بشكل متكامل بكفاءة وتسهل متابعة و مراقبة النماذج بعد نشرها. مراحل تطوير النموذج باستخدام Google Cloud استيعاب البيانات Data Ingestion: وهي عملية جمع البيانات من مصادر متعددة لهدف إنشاء قاعدة بيانات جاهزة لتحليلها أو لتدريب نماذج الذكاء الاصطناعي.  تتم هذه العملية في Google Could باستخدام المنتجات Pub/Sub , Dataflow , Dataproc , Cloud Data Fusion تخزين البيانات Data Storage: بعد جمع البيانات يتم حفظها في أنظمة و قواعد بيانات وتختلف تقنيات التخزين بحسب تصنيف البيانات و حجمها و احتياج استخدامها لاحقا مثل بيانات تستخدم يوميا أو أرشفة. من المنتجات في ارشفة المنتجات Cloud Storage, Bigtable, Cloud SQL, Spanner, Filestore, BigQuery. تحليل المنتجات Analytics Product وهي عملية تحليل البيانات و دراستها و استخراج رؤى لحل مشكلة او دعم اتخاذ قرار. Google Cloud توفر هذه المنتجات BigQuery, Looker منتجات الذكاء الاصطناعي وتعلم الآلة AI/ML Products توفر العديد من المنتجات و الخدمات التي تساعد لانشاء منتجات الذكاء الاصطناعي و تعلم الالة و من أشهرها Vertex AI.  توفر Google Could حلول خاصة بتدريب النماذج أو منتجات للشركات باستخدام الذكاء الاصطناعي. تطوير نماذج الذكاء الاصطناعي AI Development: وهي ادوات تساعد المطورين من تطوير مختلف النماذج و تدريبها و اختبار دقتها من خلال استخدام المنتجات ومنها Cloud AutoML, AI Workbench, Colab Enterprise  ,Vertex AI Studio Model Garden حلول الذكاء الاصطناعي AI Solutions: تقدم Google Cloud حلول جاهزة لأتمتة العمليات   منها Document AI , Contact Center AI , Vertex AI Search for retail , Healthcare Data Engine تقدم Google Cloud مجموعة متكاملة من منتجات الذكاء الاصطناعي التي تمكن المطورين والشركات من استغلال قوة التعلم الآلي والذكاء الاصطناعي لتحسين عملياتها وزيادة كفاءتها. سواء كان الهدف هو تطوير نماذج مخصصة باستخدام AI Platform أو الاستفادة من حلول الذكاء الاصطناعي الجاهزة

نماذج اللغات الكبيرة LLM

تطوير تطبيقات الذكاء الاصطناعي باستخدام LangChain

تعتبر نماذج اللغة الكبيرة LLMs  أدوات قوية في تطوير تطبيقات الذكاء الاصطناعي المتقدمة. و للاستفادة من إمكانياتها، نحتاج إلى إطار عمل يسهل علينا دمج هذه النماذج في تطبيقاتنا بطريقة فعالة و سلسة و هنا يأتي دور LangChain. LangChain هو إطار عمل مفتوح المصدر تم تطويره لتمكين المطورين من بناء تطبيقات تعتمد على نماذج اللغة الكبيرة LLMs بمرونة وفاعلية. الهدف من هذا الإطار هو تسهيل إنشاء سلاسل من العمليات المتسلسلة التي تربط بين النماذج اللغوية وبيانات المستخدم. باستخدام LangChain، يمكنك بناء أنظمة معقدة تتضمن قدرات متقدمة مثل الإجابة عن الأسئلة بناء على البيانات، وتخزين واسترجاع المحادثات، واستخدام النماذج كمساعدين في اتمتة العمليات. أهمية LangChain تتيح LangChain للمطورين تجاوز القدرات الأساسية لنماذج اللغة مثل استدعاء النموذج والحصول على استجابات نصية. إنها تقدم أدوات لتنظيم وتسلسل العمليات بشكل يتيح لك بناء تطبيقات قوية تعتمد على الذكاء الاصطناعي. يمكنك، على سبيل المثال، تطوير وكلاء Agents قادرين على فهم الكلام و التفاعل مع المستخدم و تقديم إجابات شافية، والتفاعل بشكل طبيعي مع المستخدمين أو الأنظمة الأخرى. يعد LangChain الحل المثالي إذا كنت ترغب في تطوير تطبيقات ذكية تعتمد على الذكاء الاصطناعي، حيث يوفر لك هذا الإطار الأدوات اللازمة لبناء تطبيقات متقدمة بقدرات كبيرة. تعلم LangChain: دورة شاملة على منصة DeepLearning.AI إذا كنت ترغب في تعلم المزيد عن كيفية استخدام LangChain لتطوير تطبيقات تعتمد على نماذج اللغة الكبيرة LLMs، يمكنك الانضمام إلى دورة LangChain for LLM Application Developmentمقدمة على منصة DeepLearning.AI محاور هذه الدورة؟ 1- النماذج، المطالبات Prompts، والمعالجات Parsers:ستتعلم كيفية استدعاء نماذج LLM، وكيفية تقديم المطالبات للنموذج والحصول على استجابات دقيقة عن طريق معالجة الردود النصية. هذه المهارة ضرورية لتحديد أفضل طريقة للاستفادة من النموذج اللغوي في تطبيقاتك. 2- الذاكرة لـ LLMs:ستتعرف على كيفية استخدام الذاكرة لتخزين المحادثات السابقة وإدارتها، خاصة في الحالات التي يكون فيها النموذج محدودًا في قدرته على التعامل مع السياقات الطويلة. هذا يُحسن تجربة المستخدم من خلال السماح للنماذج بالاستمرار في المحادثات الطويلة مع الحفاظ على سياق الكلام. 3- سلاسل العمليات Chains:ستتعلم كيفية إنشاء سلاسل من العمليات التي تدمج بين LLMs ومصادر بيانات أخرى، مما يتيح لك تطوير تطبيقات متكاملة تحتوي على خطوات متعددة ومترابطة. 4- الإجابة عن الأسئلة باستخدام المستندات:في هذه الوحدة، ستتعلم كيفية استخدام النماذج اللغوية الكبيرة للإجابة عن الأسئلة استنادًا إلى بيانات مملوكة أو مستندات معينة، مما يجعل LLMs مفيدة بشكل خاص لتطبيقات مثل استرجاع المعلومات والبحث داخل بيانات الشركة. 5- الوكلاء Agents:ستكتشف التطورات الحديثة في استخدام LLMs كوكلاء يتمتعون بقدرات تفكير واتخاذ قرارات. ستتعلم كيفية بناء وكلاء يمكنهم التفاعل مع بيئات معقدة وتنفيذ مهام متعددة بناءً على المدخلات.

البيانات

مهارات تحليل البيانات

تحليل البيانات أصبح جزء أساسي من عملية اتخاذ القرارات في الشركات والمؤسسات و يتطلب هذا المجال المهارات التقنية والعملية التي تمكن المحللين من استخراج رؤى قيمة من البيانات الضخمة. في هذا المقال، سنستعرض أهم المهارات التي يجب أن يتقنها كل محلل بيانات. المهارات التقنية الأساسية البرمجة وتحليل البيانات القدرة على البرمجة تعتبر حجر الأساس في تحليل البيانات، فهي التي تمكن المحللين من التعامل مع كميات ضخمة من البيانات وتحليلها بفعالية. من بين أهم لغات البرمجة:Python: واحدة من أكثر لغات البرمجة شيوعاً في تحليل البيانات، حيث توفر مكتبات متقدمة مثل Pandas و NumPy و Matplotlib لتسهيل تحليل البيانات.SQL: تستخدم لاسترجاع ومعالجة البيانات من قواعد البيانات. تعتبر لغة أساسية لا غنى عنها في أي بيئة تحليلية.R: لغة متخصصة في التحليل الإحصائي وتعد مناسبة لتحليل البيانات والرسوم البيانية. إدارة قواعد البيانات فهم كيفية تخزين البيانات وإدارتها بشكل فعال يساعد المحللين في الوصول إلى البيانات وتحليلها بسرعة ودقة. تشمل المهارات المهمة في هذا المجال:MySQL و SQL Server: أدوات لتخزين واسترجاع البيانات، و تمكن المحللون على بناء استفسارات فعالة لاستخراج المعلومات المطلوبة. التصور البياني للبيانات القدرة على تحويل البيانات إلى رسوم بيانية ولوحات تفاعلية يسهل فهمها.  بعض الأدوات في هذا المجال تشمل:Power BI: أداة متقدمة لإنشاء لوحات تحكم تفاعلية تعرض البيانات بشكل مرئي.Tableau: تستخدم لإنشاء تصورات معقدة، وهي مناسبة للمشاريع الكبيرة التي تتطلب تحليلات عميقة. تعلم الآلة والذكاء الاصطناعي بفضل التقدم في تعلم الآلة، يمكن للمحللين تطوير نماذج تنبؤية تساعد الشركات على التنبؤ بالاتجاهات المستقبلية. من بين أشهر الخوارزميات:الانحدار الخطي Linear Regression: يستخدم لتحديد العلاقة بين المتغيرات وتوقع النتائج.شجرة القرار Decision Tree: تساعد في تصنيف البيانات واتخاذ القرارات بناء على مجموعة من القواعد.الغابات العشوائية Random Forest: تعمل على تحسين دقة التنبؤ من خلال إنشاء مجموعة من أشجار القرار وجمع نتائجها.SVM دعم الآلات المتجهة: تستخدم لتصنيف البيانات بشكل دقيق.خوارزمية K-Mean: تُستخدم لتجميع البيانات في مجموعات بناءً على التشابه.الانحدار اللوجستي Logistic Regression: يركز على التصنيف الثنائي ويساعد في تحليل البيانات ذات الفئات المحددة. المهارات الشخصية (Soft Skills) إلى جانب المهارات التقنية، يحتاج محلل البيانات إلى تطوير مجموعة من المهارات الشخصية التي تساعده في التفاعل مع الفريق وأصحاب القرار. من أبرز هذه المهارات:التواصل الفعال: القدرة على تقديم النتائج والتحليلات بلغة مفهومة للجمهور غير المتخصص.العمل الجماعي: التعاون مع فرق متعددة التخصصات لتحقيق أهداف المشروع.الإبداع وحل المشكلات: القدرة على التفكير النقدي وإيجاد حلول مبتكرة للمشاكل المعقدة باستخدام البيانات. التحليل الإحصائي وحل المشكلات المحللون لا يتعاملون فقط مع البيانات الخام، بل يجب عليهم فهم الأنماط والعلاقات داخل البيانات. لذلك، يجب تطوير مهارات في:الإحصاء: القدرة على تحليل البيانات الإحصائية مثل التوزيعات والانحرافات المعيارية والارتباطات.استخدام الأدوات التحليلية: مثل Excel و Google Analytics، التي تساعد في تحليل البيانات والتنبؤ بالاتجاهات المستقبلية. إدارة المشاريع وتحليل الأعمال إلى جانب التحليل الفني، يحتاج المحللون إلى مهارات إدارة المشاريع وفهم الأعمال لتحقيق النجاح. من المهارات المهمة:إدارة الوقت: القدرة على تنظيم العمل وإدارة الوقت بفعالية لتحقيق الأهداف في المواعيد المحددة.فهم الأهداف التجارية: العمل على تحليل البيانات بما يتماشى مع أهداف الشركة واستراتيجياتها. تحليل البيانات يتطلب مجموعة متكاملة من المهارات التقنية والشخصية. من إتقان لغات البرمجة مثل Python و SQL، إلى فهم الخوارزميات المعقدة لتعلم الآلة، بالإضافة إلى القدرة على التواصل بفعالية والعمل ضمن فريق، كل هذه المهارات مجتمعة تساعد في تحقيق النجاح في هذا المجال. 

الذكاء الاصطناعي, دورات

برودكاست في الذكاء الاصطناعي

في عالم الذكاء الاصطناعي المتسارع، تبقى المعرفة المفتاح لفهم وتطوير التقنيات الحديثة. إذا كنت مهتمًا بمواكبة آخر التطورات والتوجهات في هذا المجال، هنا مجموعة بودكاسات تغطي مختلف جوانب الذكاء الاصطناعي.  AI today Machine Learning Street Talk Artificial Intelligence Podcast This Day in AI Podcast The TWIML AI Podcast with Sam Charrington People of AI Podcast Everyday AI

دورات

دورات مجانية لتعلم الذكاء الاصطناعي

إذا كنت تتطلع الى تعلم الذكاء الاصطناعي، فهناك العديد من الدورات المجانية التي تغطي مجموعة واسعة من مواضيع ومسارات الذكاء الاصطناعي, هذه قائمة ببعض الدورات المجانية التي يمكنك البدء منها  مقدمة في الذكاء الاصطناعي – IBM الذكاء الاصطناعي للجميع IBM Python لعلوم البيانات، الذكاء الاصطناعي والبرمجة – IBM  مقدمة في الذكاء الاصطناعي التوليدي – Google تعلم الآلة للجميع – جامعة لندن  

التعلم العميق

خارطة طريق للتعلم العميق Deep Learning

التعلم العميق هو أحد فروع الذكاء الاصطناعي الذي يركز على نماذج الشبكات العصبية العميقة لتعليم الآلة كيفية التعلم من البيانات الكبيرة والمعقدة. إذا كنت ترغب في تعلم هذا المجال، في هذه المقاله نشرح خارطة الطريق لتعلم الأساسيات و المواضيع العلمية في هذا المسار.  المرحلة الأولى: المفاهيم الأساسية الرياضيات الجبر الخطي: تعلم الأسس مثل المتجهات، المصفوفات، التحديدات، والتحويلات الخطية.حساب التفاضل والتكامل: التركيز على التفاضل والتكامل متعدد المتغيرات وتطبيقاته في تحسين الشبكات العصبية.الاحتمالات والإحصاء: تعلم الأساسيات مثل التوزيعات، التوقعات، والانحدار الإحصائي. مصادر مقترحة:– كورس Linear Algebra من Khan Academy.– كورس Calculus من MIT OpenCourseWare.– كتاب Probability and Statistics for Engineers and Scientists. البرمجة بايثون Python: هي اللغة الأكثر شيوعًا في مجال التعلم العميق.المكتبات الأساسية: تعلم استخدام NumPy، Pandas، Matplotlib، وScikit-learn. كورسات مقترحة:كورس Python for Data Science من Coursera.كتاب Python Data Science Handbook.  المرحلة الثانية: أساسيات تعلم الآلة Machine Learning مفاهيم أساسية في تعلم الآلة الانحدار Regression: الخطية وغير الخطية.التصنيف Classification: طرق تصنيف البيانات.التجميع Clustering: مثل K-Means وHierarchical Clustering. مصادر مقترحة:– كورس Machine Learning من Andrew Ng على Coursera.– كتاب Pattern Recognition and Machine Learning. مكتبات تعلم الآلة Scikit-learn: تعلم كيفية استخدام هذه المكتبة لإنشاء نماذج بسيطة.التطبيق العملي: بناء مشاريع بسيطة مثل توقع أسعار المنازل أو تصنيف الصور.  المرحلة الثالثة: أساسيات التعلم العميق Deep Learning مقدمة في التعلم العميق –الشبكات العصبية Neural Networks: فهم الخلايا العصبية الاصطناعية، التفعيل Activation Functions، الانتشار الأمامي والخلفي.التعلم العميق: الفرق بين التعلم الآلي والتعلم العميق. مصادر مقترحة:– كورس Deep Learning Specialization من Andrew Ng على Coursera.– كتاب Deep Learning من تأليف Ian Goodfellow. مكتبات التعلم العميق TensorFlow وPyTorch: تعلم كيفية بناء الشبكات العصبية باستخدام هذه المكتبات.Keras:  لبناء نماذج التعلم العميق بسهولة. مصادر مقترحة:– كورس TensorFlow in Practice على Coursera.– كورس Deep Learning with PyTorch من Udacity. المرحلة الرابعة: التخصصات والتطبيقات الشبكات العصبية الالتفافية Convolutional Neural Networks CNNs التطبيقات: الرؤية الحاسوبية، تصنيف الصور، التعرف على الوجه.المفاهيم الأساسية: الالتفاف، التجميع، الشبكات الملتفة. مصادر مقترحة:– كورس Convolutional Neural Networks من Deep Learning Specialization.مشروع: بناء نموذج للتعرف على الصور باستخدام CNN. الشبكات العصبية التكراريةRecurrent Neural Networks  RNNs مثال: معالجة اللغات الطبيعية، الترجمة الآلية، التنبؤ بالسلاسل الزمنية.المفاهيم الأساسية: الذاكرة الطويلة والقصيرة الأجل LSTM، وحدات GRU. مصادر مقترحة:– كورسSequence Models من Deep Learning Specialization.مثال: بناء نموذج لتحليل النصوص باستخدام RNN. التعلم المعزز Reinforcement Learning  مثال الألعاب، الروبوتات، التداول الآلي.المفاهيم الأساسية: التعلم من المكافأة و الخسارة ، Q-Learning، سياسة التعليم. مصادر مقترحة:– كورس Deep Reinforcement Learning Nanodegree منUdacity.– كتاب Reinforcement Learning: An Introduction من تأليف Richard S. Sutton. المرحلة الخامسة: التوسع والتعمق  النماذج التوليدية Generative Models – GANs Generative Adversarial Networks: فهم كيفية عمل هذه الشبكات في توليد الصور والنصوص.– VAEs Variational Autoencoders: فهم استخدامها في ضغط البيانات وإنشاء بيانات جديدة. مثال: تطوير نظام توليد صور جديد باستخدام GANs. التعلم العميق التطبيقي – التطبيقات الصناعية: معالجة الصور، النصوص، الصوت. المشاركة في مشاريع مفتوحة المصدر Kaggle.  المرحلة السادسة: التنفيذ والتطبيق مشاريع حقيقية بناء مشاريع: تطبيق كل ما تعلمته  مثل تطبيقات الجوال التي تعتمد على التعلم العميق، أو بناء نموذج ذكاء اصطناعي للألعاب.– المشاريع: شارك المشاريع عبر GitHub أو المدونات التقنية. التدريب العملي التدريب: البحث عن فرص تدريب عملي في شركات تقنية أو مراكز بحثية لتطبيق مهاراتك في مشاريع على ارض الواقع.المشاركة في المسابقات: شارك في مسابقات مثل Kaggle لتحسين مهاراتك واكتساب المزيد من الخبرة.  

البيانات

مصطلحات في علم البيانات

قاعدة البيانات، المخطط، الجدول Database, Schema, Table قاعدة البيانات Database: نظام يخزن ويدير البيانات المنظمة.المخطط Schema: يحدد هيكل البيانات وقواعد تخزينها.الجدول Table: ينظم البيانات في صفوف وأعمدة داخل قاعدة البيانات.مثال:في جامعة، قاعدة بيانات تخزن معلومات الطلاب، يتضمن المخطط تقسيم البيانات إلى جداول مختلفة مثل جدول الطلاب، جدول  وجدول الدرجات. خط أنابيب البيانات Data Pipeline هو نظام يدير تدفق البيانات من نقاط جمعها إلى وجهات التخزين مثل بحيرات البيانات أو المستودعات.مثال مصنع يجمع بيانات من أجهزة الاستشعار المختلفة مثل درجة الحرارة والرطوبة، ثم ينقل هذه البيانات إلى مستودع بيانات لتحليلها فيما بعد ETL مقابل ELT ETL: عملية استخراج البيانات، تحويلها إلى تنسيق مناسب، ثم تحميلها في نظام تخزين.ELT: عملية استخراج البيانات، تحميلها في نظام التخزين، ثم تحويلها داخليًا.مثال: ETL متجر إلكتروني يقوم بجمع بيانات المبيعات اليومية، يحولها إلى تنسيق مشترك، ثم يخزنها في مستودع بيانات.ELT: شركة تحليل بيانات تقوم بتحميل جميع بيانات العملاء إلى مستودع البيانات مباشرة، ثم تستخدم أدوات تحليلية لتحويل هذه البيانات. بحيرة البيانات, مستودع البيانات , متجر البيانات Data Lake ,Data Warehouse , Data Mart بحيرة البيانات Data Lake: تخزن كميات ضخمة من البيانات الخام بمختلف أنواعها.مستودع البيانات Data Warehouse: قاعدة بيانات مخصصة للبيانات المهيكلة والمجهزة للاستعلام.متجر البيانات Data Mart: قسم محدد من مستودع البيانات يركز على وظيفة أو قسم معين. مثال لبحيرة البيانات, شركة تقنية تخزن كل أنواع بيانات المستخدمين الخام، من النصوص إلى مقاطع الفيديو.مستودع البيانات, بنك يحتفظ ببيانات المعاملات المالية المهيكلة لاستعلامات دورية.متجر البيانات, قسم التسويق في شركة يستخدم متجر بيانات مخصص للوصول إلى بيانات العملاء وتوجيه الحملات الإعلانية. المعالجة الدُفعية و المعالجة المستمرة Batch , Stream Processing المعالجة الدفعية Batch: معالجة مجموعة من البيانات دفعة واحدة في وقت محدد.المعالجة المستمرة Stream: معالجة البيانات فور وصولها بشكل مستمر وفي الوقت الفعلي.مثال المعالجة الدفعية, منصة تجارة إلكترونية تقوم بمعالجة جميع طلبات الشراء في نهاية كل يوم.المعالجة المستمرة, نظام كشف الاحتيال الذي يراقب معاملات بطاقات الائتمان في الوقت الفعلي لمنع الاحتيال فور حدوثه. جودة البيانات Data Quality هو ضمان أن البيانات دقيقة و متسقة وملائمة للهدف.مثال شركة تأمين تتحقق من دقة واكتمال بيانات العملاء لضمان تقديم عروض تأمين مناسبة لكل عميل. نمذجة البيانات Data Modeling تصميم هيكل قاعدة البيانات بطريقة تدعم التحليل السريع والفعال.مثال متجر إلكتروني يصمم قاعدة بيانات بحيث يمكن استرداد معلومات مثل المنتجات الأكثر مبيعًا أو سجلات العملاء بسهولة. تنسيق البيانات Data Orchestration إدارة حركة البيانات وتكاملها عبر الأنظمة المختلفة لتوفير تدفق سلس وتحليل فعال.مثال شركة دولية تقوم بجمع بيانات مبيعات من متاجرها في جميع أنحاء العالم وتنسيقها في مستودع بيانات مركزي لتحليل أداء المبيعات عالميا. نسب البيانات Data Lineage تتبع مسار البيانات وتحولاتها من المصدر إلى الوجهة النهائية.مثال شركة أدوية تتبع البيانات المتعلقة بتطوير دواء معين، من لحظة جمع البيانات التجريبية، مرورا بالتحليلات المختلفة  إلى التقارير النهائية التي تقدم إلى الجهات المعنية. التعلم الآلي Machine Learning فرع من الذكاء الاصطناعي يعتمد على تدريب النماذج على البيانات لتمكين الأنظمة من التعلم واتخاذ القرارات دون برمجة صريحة.مثال منصة توصيات الأفلام تستخدم التعلم الآلي لتحليل تاريخ مشاهدة المستخدم واقتراح الأفلام التي قد تعجبه. تحليل البيانات Data Analysis عملية استكشاف وتفسير البيانات لاستخلاص رؤى تدعم اتخاذ القرارات.مثال محلل بيانات يقوم بدراسة بيانات مبيعات الشركة لتحليل أداء المنتجات وتحديد الاستراتيجيات لتحسين المبيعات. البيانات الضخمة Big Data مجموعات بيانات ضخمة ومعقدة لا يمكن معالجتها بواسطة أدوات وتقنيات إدارة البيانات التقليدية.مثال شركات مثل Google وAmazon تعالج وتحلل كميات هائلة من البيانات الضخمة لتقديم خدمات مخصصة للمستخدمين. النموذج التنبؤي Predictive Model نموذج يستخدم البيانات التاريخية للتنبؤ بالنتائج المستقبلية.مثال بنك يستخدم نموذج تنبؤي لتقدير احتمالية تخلف العملاء عن سداد القروض بناء على تاريخهم المالي. التصور البياني Data Visualization تحويل البيانات إلى رسومات بصرية مثل المخططات والخرائط لعرض المعلومات بشكل سهل الفهم.مثال مدير مشروع يستخدم لوحة معلومات تحتوي على رسوم بيانية تعرض تقدم العمل ومؤشرات الأداء الرئيسية.