آخر

لقد وصل الذكاء الاصطناعي إلى حدود البيرة


بدأت شركة جديدة في صنع البيرة باستخدام الذكاء الاصطناعي وخوارزمية تراعي ملاحظات العملاء

وسرعان ما ستحتوي حنفيات كهذه على بيرة من صنع الإنسان.

يستمر الذكاء الاصطناعي في الوصول إلى آفاق جديدة. يمكن يربح الخطر, هزيمة سادة الشطرنج، و تشخيص الحالات الطبية.

كما أنها أحدثت موجات كبيرة في صناعة المواد الغذائية من خلال عد السعرات الحرارية, يعمل كشيف، و ابتكار وصفات جديدة. ومع ذلك ، تحاول شركة واحدة إدخال التكنولوجيا إلى واحدة من أكثر الشركات الممارسات القديمة من البشر: استهلاك الكحول.

إنتليجنت إكس ، شركة مقرها لندن ، علم الروبوت لتخمير البيرة باستخدام خوارزمية. يمكن للمستهلكين تسجيل الدخول إلى Facebook ومشاركة آرائهم حول البيرة مع برنامج الدردشة الآلي الخاص بالشركة. ثم يأخذ الروبوت هذه الملاحظات ويبدأ في إجراء تعديلات على البيرة. كما أنه يستخدم عملية اتخاذ القرار لمعرفة ما إذا كانت التعديلات ناجحة أم لا.

أوضح الشريك المؤسس هيو ليث المنتج النهائي: "نحن نستخدم الذكاء الاصطناعي لمنح مهاراتنا الخارقة للبيرة ، وتمكينهم من اختبار وتلقي التعليقات على البيرة لدينا بسرعة أكبر من أي وقت مضى."

قد تكون النتيجة غير عادية: بيرة تستمر في التحسين وصقل لوح ألوانها لتلبية رغبات عملائها. ومع ذلك ، يبدو أن بعض التعليقات السيئة قد تؤدي إلى ضلال الجعة ؛ الذكاء الاصطناعي فشل بشكل مثير للضحك من قبل ، حتى في الصناعات الغذائية.

كيفما اتضح ، يجب أن تكون التجربة ممتعة للمشاهدة - خاصةً على جهاز المفضل للبار.


& # x27It & # x27s قادرة على إنشاء المعرفة بنفسها & # x27: تكشف Google عن الذكاء الاصطناعي الذي يتعلم من تلقاء نفسه

تغلب AlphaGo Zero على سلفه لعام 2015 ، الذي هزم الأستاذ الكبير Lee Sedol ، 100 لعبة من Go to 0.

تغلب AlphaGo Zero على سلفه لعام 2015 ، الذي هزم الأستاذ الكبير Lee Sedol ، 100 لعبة من Go to 0.

في إنجاز كبير للذكاء الاصطناعي ، استغرق AlphaGo Zero ثلاثة أيام فقط لإتقان لعبة اللوحة الصينية القديمة Go. بدون مساعدة بشرية

آخر تعديل يوم الأربعاء 14 فبراير 2018 21.10 بتوقيت جرينتش

كشفت مجموعة الذكاء الاصطناعي التابعة لشركة Google ، DeepMind ، النقاب عن أحدث تجسيد لبرنامج Go-play الخاص بها ، AlphaGo - وهو ذكاء اصطناعي قوي للغاية لدرجة أنه استمد آلاف السنين من المعرفة البشرية باللعبة قبل اختراع حركات أفضل خاصة به ، كل ذلك في مساحة ثلاثة ايام.

تم الترحيب ببرنامج الذكاء الاصطناعي ، الذي أطلق عليه اسم AlphaGo Zero ، باعتباره تقدمًا كبيرًا لأنه أتقن لعبة اللوحة الصينية القديمة من الصفر ، وبدون مساعدة بشرية بخلاف إخباره بالقواعد. في المباريات ضد نسخة 2015 ، التي فازت بشكل مشهور على لي سيدول ، الأستاذ الكوري الجنوبي الكبير ، في العام التالي ، فاز AlphaGo Zero بنسبة 100 إلى 0.

يمثل هذا الإنجاز علامة فارقة على طريق الذكاء الاصطناعي للأغراض العامة التي يمكنها القيام بأكثر من ضرب البشر في ألعاب الطاولة. نظرًا لأن AlphaGo Zero يتعلم من تلقاء نفسه من صفحة بيضاء ، يمكن الآن تحويل مواهبه إلى مجموعة من مشاكل العالم الحقيقي.

في DeepMind ، ومقرها لندن ، يعمل AlphaGo Zero على اكتشاف كيفية طي البروتينات ، وهو تحد علمي هائل يمكن أن يمنح اكتشاف الدواء حقنة في الذراع تشتد الحاجة إليها.

المباراة 3 من AlphaGo و Lee Sedol في مارس 2016. الصورة: Erikbenson

قال ديميس هاسابيس ، الرئيس التنفيذي لشركة DeepMind والباحث في الفريق: "بالنسبة لنا ، لم يكن AlphaGo مجرد الفوز بلعبة Go". "لقد كانت أيضًا خطوة كبيرة بالنسبة لنا نحو بناء هذه الخوارزميات ذات الأغراض العامة." توصف معظم أنظمة الذكاء الاصطناعي بأنها "ضيقة" لأنها تؤدي مهمة واحدة فقط ، مثل ترجمة اللغات أو التعرف على الوجوه ، لكن الذكاء الاصطناعي للأغراض العامة يمكن أن يتفوق على البشر في العديد من المهام المختلفة. في العقد القادم ، يعتقد حسابيس أن أحفاد AlphaGo سيعملون جنبًا إلى جنب مع البشر كخبراء علميين وطبيين.

تعلمت الإصدارات السابقة من AlphaGo تحركاتها من خلال التدريب على آلاف الألعاب التي يلعبها هواة ومحترفون بشريون أقوياء. لم يكن لدى AlphaGo Zero مثل هذه المساعدة. بدلاً من ذلك ، تعلمت بحتة من خلال لعب نفسها ملايين المرات. بدأت بوضع الحجارة على لوحة Go بشكل عشوائي ولكنها تحسنت بسرعة عندما اكتشفت استراتيجيات الفوز.

يصف David Silver كيف يكتشف برنامج Go play AI ، AlphaGo Zero ، معرفة جديدة من البداية. الائتمان: DeepMind

قال ديفيد سيلفر ، الباحث الرئيسي في AlphaGo: "إنها أقوى من الأساليب السابقة لأنه من خلال عدم استخدام البيانات البشرية أو الخبرة البشرية بأي شكل من الأشكال ، أزلنا قيود المعرفة البشرية ويمكنها إنشاء المعرفة بنفسها".

يكتسب البرنامج مهاراته من خلال إجراء يسمى التعلم المعزز. إنها نفس الطريقة التي يساعد بها التوازن من ناحية والركبتين من ناحية أخرى البشر على إتقان فن ركوب الدراجات. عندما يلعب AlphaGo Zero حركة جيدة ، فمن المرجح أن يكافأ بالفوز. عندما يقوم بحركة سيئة ، فإنه يقترب من الخسارة.

ديميس هاسابيس ، الرئيس التنفيذي لشركة DeepMind: "بالنسبة لنا ، لم يكن AlphaGo مجرد الفوز بلعبة Go." الصورة: DeepMind / Nature

يوجد في قلب البرنامج مجموعة من "الخلايا العصبية" البرمجية التي ترتبط ببعضها البعض لتشكيل شبكة عصبية اصطناعية. في كل دورة من اللعبة ، تنظر الشبكة إلى مواضع القطع على لوحة Go وتحسب الحركات التي يمكن إجراؤها بعد ذلك واحتمالية أن تؤدي إلى الفوز. بعد كل لعبة ، تقوم بتحديث شبكتها العصبية ، مما يجعلها لاعبًا أقوى للمباراة التالية. على الرغم من أنه أفضل بكثير من الإصدارات السابقة ، فإن AlphaGo Zero هو برنامج أبسط ويتقن اللعبة بشكل أسرع على الرغم من التدريب على بيانات أقل وتشغيله على جهاز كمبيوتر أصغر. قال سيلفر إنه إذا أعطيت مزيدًا من الوقت ، كان من الممكن أن تكون قد تعلمت القواعد بنفسها أيضًا.

ما هو الذكاء الاصطناعي؟

للذكاء الاصطناعي تعريفات مختلفة ، ولكن بشكل عام يعني البرنامج الذي يستخدم البيانات لبناء نموذج لبعض جوانب العالم. ثم يتم استخدام هذا النموذج لاتخاذ قرارات مستنيرة وتنبؤات حول الأحداث المستقبلية. تُستخدم التكنولوجيا على نطاق واسع ، لتوفير التعرف على الكلام والوجه ، وترجمة اللغة ، والتوصيات الشخصية بشأن مواقع الموسيقى والأفلام والتسوق. في المستقبل ، يمكن أن توفر سيارات بدون سائق ، ومساعدين شخصيين أذكياء ، وشبكات طاقة ذكية. يمكن للذكاء الاصطناعي أن يجعل المنظمات أكثر فعالية وكفاءة ، لكن التكنولوجيا تثير قضايا خطيرة تتعلق بالأخلاقيات والحوكمة والخصوصية والقانون.

في مجلة Nature ، وصف الباحثون كيف بدأ AlphaGo Zero بشكل رهيب ، وتقدم إلى مستوى الهاوي الساذج ، وفي النهاية نشر حركات إستراتيجية للغاية يستخدمها الأساتذة الكبار ، كل ذلك في غضون أيام. اكتشف مسرحية واحدة مشتركة تسمى أ جوسيكي، في أول 10 ساعات. سرعان ما تبعت الحركات الأخرى ، بأسماء مثل "الانهيار الجليدي الصغير" و "الكماشة تتحرك الفارس". بعد ثلاثة أيام ، اكتشف البرنامج تحركات جديدة تمامًا يدرسها الخبراء البشريون الآن. ومن المثير للاهتمام أن البرنامج قد استوعب بعض الحركات المتقدمة قبل وقت طويل من اكتشافه لحركات أبسط ، مثل نمط يسمى سلم يميل لاعبو Go البشر إلى فهمه مبكرًا.

تتضمن هذه المقالة المحتوى المستضاف على gfycat.com. نطلب إذنك قبل تحميل أي شيء ، حيث قد يستخدم المزود ملفات تعريف الارتباط وتقنيات أخرى. لعرض هذا المحتوى ، انقر فوق & # x27 السماح ومتابعة & # x27.

قال حسابيس: "يكتشف بعض أفضل المسرحيات ، جوسيكيس ، ثم يتخطى تلك المسرحيات ويجد شيئًا أفضل". "يمكنك أن ترى أنه يعيد اكتشاف آلاف السنين من المعرفة البشرية."

قالت إليني فاسيلاكي ، أستاذة علم الأعصاب الحسابي في جامعة شيفيلد ، إنه كان إنجازًا رائعًا. وقالت: "قد يعني هذا أنه من خلال عدم إشراك خبير بشري في تدريبه ، يكتشف AlphaGo حركات أفضل تتجاوز الذكاء البشري في هذه اللعبة المحددة". لكنها أشارت إلى أنه في حين أن أجهزة الكمبيوتر تتفوق على البشر في الألعاب التي تنطوي على حسابات معقدة ودقة ، إلا أنها بعيدة كل البعد عن مطابقة البشر في مهام أخرى. قالت: "يفشل الذكاء الاصطناعي في المهام التي من المستغرب أن تكون سهلة على البشر". "انظر فقط إلى أداء الإنسان الآلي في المهام اليومية مثل المشي والجري وركل الكرة."

وصف توم ميتشل ، عالم الكمبيوتر في جامعة كارنيجي ميلون في بيتسبرغ ، AlphaGo Zero بأنه "إنجاز هندسي بارز". وأضاف: "إنه يغلق الكتاب حول ما إذا كان البشر سيلحقون بأجهزة الكمبيوتر في Go. أعتقد أن الجواب لا. لكنه يفتح كتابًا جديدًا ، حيث تعلم أجهزة الكمبيوتر البشر كيفية اللعب بشكل أفضل مما اعتادوا عليه ".

يصف David Silver كيف يتعلم برنامج الذكاء الاصطناعي AlphaGo Zero كيف يلعب Go. الائتمان: DeepMind


& # x27It & # x27s قادرة على إنشاء المعرفة بنفسها & # x27: تكشف Google عن الذكاء الاصطناعي الذي يتعلم من تلقاء نفسه

تغلب AlphaGo Zero على سلفه لعام 2015 ، الذي هزم الأستاذ الكبير Lee Sedol ، 100 لعبة من Go to 0.

تغلب AlphaGo Zero على سلفه لعام 2015 ، الذي هزم الأستاذ الكبير Lee Sedol ، 100 لعبة من Go to 0.

في إنجاز كبير للذكاء الاصطناعي ، استغرق AlphaGo Zero ثلاثة أيام فقط لإتقان لعبة اللوحة الصينية القديمة Go. بدون مساعدة بشرية

آخر تعديل يوم الأربعاء 14 فبراير 2018 21.10 بتوقيت جرينتش

كشفت مجموعة الذكاء الاصطناعي التابعة لشركة Google ، DeepMind ، النقاب عن أحدث تجسيد لبرنامج Go-play الخاص بها ، AlphaGo - وهو ذكاء اصطناعي قوي لدرجة أنه استمد آلاف السنين من المعرفة البشرية باللعبة قبل اختراع حركات أفضل خاصة به ، كل ذلك في مساحة ثلاثة ايام.

تم الترحيب ببرنامج الذكاء الاصطناعي ، الذي أطلق عليه اسم AlphaGo Zero ، باعتباره تقدمًا كبيرًا لأنه أتقن لعبة اللوحة الصينية القديمة من الصفر ، وبدون مساعدة بشرية بخلاف إخباره بالقواعد. في المباريات ضد نسخة 2015 ، التي فازت بشكل مشهور على لي سيدول ، الأستاذ الكوري الجنوبي الكبير ، في العام التالي ، فاز AlphaGo Zero بنسبة 100 إلى 0.

يمثل هذا الإنجاز علامة فارقة على طريق الذكاء الاصطناعي للأغراض العامة التي يمكنها القيام بأكثر من ضرب البشر في ألعاب الطاولة. نظرًا لأن AlphaGo Zero يتعلم من تلقاء نفسه من صفحة بيضاء ، يمكن الآن تحويل مواهبه إلى مجموعة من مشاكل العالم الحقيقي.

في DeepMind ، ومقرها لندن ، يعمل AlphaGo Zero على اكتشاف كيفية طي البروتينات ، وهو تحد علمي هائل يمكن أن يمنح اكتشاف الدواء حقنة في الذراع تشتد الحاجة إليها.

المباراة 3 من AlphaGo و Lee Sedol في مارس 2016. الصورة: Erikbenson

قال ديميس هاسابيس ، الرئيس التنفيذي لشركة DeepMind والباحث في الفريق: "بالنسبة لنا ، لم يكن AlphaGo مجرد الفوز بلعبة Go". "لقد كانت أيضًا خطوة كبيرة بالنسبة لنا نحو بناء هذه الخوارزميات ذات الأغراض العامة." توصف معظم أنظمة الذكاء الاصطناعي بأنها "ضيقة" لأنها تؤدي مهمة واحدة فقط ، مثل ترجمة اللغات أو التعرف على الوجوه ، لكن الذكاء الاصطناعي للأغراض العامة يمكن أن يتفوق على البشر في العديد من المهام المختلفة. في العقد القادم ، يعتقد حسابيس أن أحفاد AlphaGo سيعملون جنبًا إلى جنب مع البشر كخبراء علميين وطبيين.

تعلمت الإصدارات السابقة من AlphaGo تحركاتها من خلال التدريب على آلاف الألعاب التي يلعبها هواة ومحترفون بشريون أقوياء. لم يكن لدى AlphaGo Zero مثل هذه المساعدة. بدلاً من ذلك ، تعلمت بحتة من خلال لعب نفسها ملايين المرات. بدأت بوضع الحجارة على لوحة Go بشكل عشوائي ولكنها تحسنت بسرعة عندما اكتشفت استراتيجيات الفوز.

يصف David Silver كيف يكتشف برنامج Go play AI ، AlphaGo Zero ، معرفة جديدة من البداية. الائتمان: DeepMind

قال ديفيد سيلفر ، الباحث الرئيسي في AlphaGo: "إنها أقوى من الأساليب السابقة لأنه من خلال عدم استخدام البيانات البشرية أو الخبرة البشرية بأي شكل من الأشكال ، أزلنا قيود المعرفة البشرية ويمكنها إنشاء المعرفة بنفسها".

يكتسب البرنامج مهاراته من خلال إجراء يسمى التعلم المعزز. إنها نفس الطريقة التي يساعد بها التوازن من ناحية والركبتين من ناحية أخرى البشر على إتقان فن ركوب الدراجات. عندما يلعب AlphaGo Zero حركة جيدة ، فمن المرجح أن يكافأ بالفوز. عندما يقوم بحركة سيئة ، فإنه يقترب من الخسارة.

ديميس هاسابيس ، الرئيس التنفيذي لشركة DeepMind: "بالنسبة لنا ، لم يكن AlphaGo مجرد الفوز بلعبة Go." الصورة: DeepMind / Nature

يوجد في قلب البرنامج مجموعة من "الخلايا العصبية" البرمجية التي ترتبط ببعضها البعض لتشكيل شبكة عصبية اصطناعية. في كل دورة من اللعبة ، تنظر الشبكة إلى مواضع القطع على لوحة Go وتحسب الحركات التي يمكن إجراؤها بعد ذلك واحتمالية أن تؤدي إلى الفوز. بعد كل لعبة ، تقوم بتحديث شبكتها العصبية ، مما يجعلها لاعبًا أقوى للمباراة التالية. على الرغم من أنه أفضل بكثير من الإصدارات السابقة ، فإن AlphaGo Zero هو برنامج أبسط ويتقن اللعبة بشكل أسرع على الرغم من التدريب على بيانات أقل وتشغيله على جهاز كمبيوتر أصغر. قال سيلفر إنه إذا أعطيت مزيدًا من الوقت ، كان من الممكن أن تكون قد تعلمت القواعد بنفسها أيضًا.

ما هو الذكاء الاصطناعي؟

للذكاء الاصطناعي تعريفات مختلفة ، ولكن بشكل عام يعني البرنامج الذي يستخدم البيانات لبناء نموذج لبعض جوانب العالم. ثم يتم استخدام هذا النموذج لاتخاذ قرارات مستنيرة وتنبؤات حول الأحداث المستقبلية. تُستخدم التكنولوجيا على نطاق واسع ، لتوفير التعرف على الكلام والوجه ، وترجمة اللغة ، والتوصيات الشخصية بشأن مواقع الموسيقى والأفلام والتسوق. في المستقبل ، يمكن أن توفر سيارات بدون سائق ، ومساعدين شخصيين أذكياء ، وشبكات طاقة ذكية. يمكن للذكاء الاصطناعي أن يجعل المنظمات أكثر فعالية وكفاءة ، لكن التكنولوجيا تثير قضايا خطيرة تتعلق بالأخلاقيات والحوكمة والخصوصية والقانون.

كتب الباحثون في دورية Nature ، كيف بدأ AlphaGo Zero بشكل رهيب ، وتقدم إلى مستوى الهاوي الساذج ، وفي النهاية نشر حركات إستراتيجية للغاية يستخدمها الأساتذة الكبار ، كل ذلك في غضون أيام. اكتشف مسرحية واحدة مشتركة تسمى أ جوسيكي، في أول 10 ساعات. سرعان ما تبعت الحركات الأخرى ، بأسماء مثل "الانهيار الجليدي الصغير" و "كماشة تحرك الفارس". بعد ثلاثة أيام ، اكتشف البرنامج تحركات جديدة تمامًا يدرسها الخبراء البشريون الآن. ومن المثير للاهتمام أن البرنامج قد استوعب بعض الحركات المتقدمة قبل فترة طويلة من اكتشافه لحركات أبسط ، مثل نمط يسمى سلم يميل لاعبو Go إلى فهمه مبكرًا.

تتضمن هذه المقالة المحتوى المستضاف على gfycat.com. نطلب إذنك قبل تحميل أي شيء ، حيث قد يستخدم المزود ملفات تعريف الارتباط وتقنيات أخرى. لعرض هذا المحتوى ، انقر فوق & # x27 السماح ومتابعة & # x27.

قال حسابيس: "يكتشف بعض أفضل المسرحيات ، جوسيكيس ، ثم يتخطى تلك المسرحيات ويجد شيئًا أفضل". "يمكنك أن ترى أنه يعيد اكتشاف آلاف السنين من المعرفة البشرية."

قالت إليني فاسيلاكي ، أستاذة علم الأعصاب الحسابي في جامعة شيفيلد ، إنه كان إنجازًا رائعًا. وقالت: "قد يعني هذا أنه من خلال عدم إشراك خبير بشري في تدريبه ، يكتشف AlphaGo حركات أفضل تتجاوز الذكاء البشري في هذه اللعبة المحددة". لكنها أشارت إلى أنه في حين أن أجهزة الكمبيوتر تتفوق على البشر في الألعاب التي تنطوي على حسابات معقدة ودقة ، فإنها بعيدة كل البعد عن مطابقة البشر في مهام أخرى. قالت: "يفشل الذكاء الاصطناعي في المهام التي من المستغرب أن تكون سهلة على البشر". "انظر فقط إلى أداء الإنسان الآلي في المهام اليومية مثل المشي والجري وركل الكرة."

وصف توم ميتشل ، عالم الكمبيوتر في جامعة كارنيجي ميلون في بيتسبرغ ، AlphaGo Zero بأنه "إنجاز هندسي بارز". وأضاف: "إنه يغلق الكتاب حول ما إذا كان البشر سيلحقون بأجهزة الكمبيوتر في Go. أعتقد أن الجواب لا. لكنه يفتح كتابًا جديدًا ، حيث تعلم أجهزة الكمبيوتر البشر كيفية اللعب بشكل أفضل مما اعتادوا عليه ".

يصف David Silver كيف يتعلم برنامج الذكاء الاصطناعي AlphaGo Zero كيف يلعب Go. الائتمان: DeepMind


& # x27It & # x27s قادرة على إنشاء المعرفة بنفسها & # x27: تكشف Google عن الذكاء الاصطناعي الذي يتعلم من تلقاء نفسه

تغلب AlphaGo Zero على سلفه لعام 2015 ، الذي هزم الأستاذ الكبير Lee Sedol ، 100 لعبة من Go to 0.

تغلب AlphaGo Zero على سلفه لعام 2015 ، الذي هزم الأستاذ الكبير Lee Sedol ، 100 لعبة من Go to 0.

في إنجاز كبير للذكاء الاصطناعي ، استغرق AlphaGo Zero ثلاثة أيام فقط لإتقان لعبة اللوحة الصينية القديمة Go. بدون مساعدة بشرية

آخر تعديل يوم الأربعاء 14 فبراير 2018 21.10 بتوقيت جرينتش

كشفت مجموعة الذكاء الاصطناعي التابعة لشركة Google ، DeepMind ، النقاب عن أحدث تجسيد لبرنامج Go-play الخاص بها ، AlphaGo - وهو ذكاء اصطناعي قوي لدرجة أنه استمد آلاف السنين من المعرفة البشرية باللعبة قبل اختراع حركات أفضل خاصة به ، كل ذلك في مساحة ثلاثة ايام.

تم الترحيب ببرنامج الذكاء الاصطناعي ، الذي أطلق عليه اسم AlphaGo Zero ، باعتباره تقدمًا كبيرًا لأنه أتقن لعبة اللوحة الصينية القديمة من الصفر ، وبدون مساعدة بشرية بخلاف إخباره بالقواعد. في المباريات ضد نسخة 2015 ، التي فازت بشكل مشهور على لي سيدول ، الأستاذ الكوري الجنوبي الكبير ، في العام التالي ، فاز AlphaGo Zero بنسبة 100 إلى 0.

يمثل هذا الإنجاز علامة فارقة على طريق الذكاء الاصطناعي للأغراض العامة التي يمكنها القيام بأكثر من ضرب البشر في ألعاب الطاولة. نظرًا لأن AlphaGo Zero يتعلم من تلقاء نفسه من صفحة بيضاء ، يمكن الآن تحويل مواهبه إلى مجموعة من مشاكل العالم الحقيقي.

في DeepMind ، ومقرها لندن ، يعمل AlphaGo Zero على اكتشاف كيفية طي البروتينات ، وهو تحد علمي هائل يمكن أن يمنح اكتشاف الدواء حقنة في الذراع تشتد الحاجة إليها.

المباراة الثالثة من AlphaGo و Lee Sedol في مارس 2016. الصورة: Erikbenson

قال ديميس هاسابيس ، الرئيس التنفيذي لشركة DeepMind والباحث في الفريق: "بالنسبة لنا ، لم يكن AlphaGo مجرد الفوز بلعبة Go". "لقد كانت أيضًا خطوة كبيرة بالنسبة لنا نحو بناء هذه الخوارزميات ذات الأغراض العامة." توصف معظم أنظمة الذكاء الاصطناعي بأنها "ضيقة" لأنها تؤدي مهمة واحدة فقط ، مثل ترجمة اللغات أو التعرف على الوجوه ، لكن الذكاء الاصطناعي للأغراض العامة يمكن أن يتفوق على البشر في العديد من المهام المختلفة. في العقد القادم ، يعتقد حسابيس أن أحفاد AlphaGo سيعملون جنبًا إلى جنب مع البشر كخبراء علميين وطبيين.

تعلمت الإصدارات السابقة من AlphaGo تحركاتها من خلال التدريب على آلاف الألعاب التي يلعبها هواة ومحترفون بشريون أقوياء. لم يكن لدى AlphaGo Zero مثل هذه المساعدة. بدلاً من ذلك ، تعلمت بحتة من خلال لعب نفسها ملايين المرات. بدأت بوضع الحجارة على لوحة Go بشكل عشوائي ولكنها تحسنت بسرعة عندما اكتشفت استراتيجيات الفوز.

يصف David Silver كيف يكتشف برنامج Go play AI ، AlphaGo Zero ، معرفة جديدة من البداية. الائتمان: DeepMind

قال ديفيد سيلفر ، الباحث الرئيسي في AlphaGo: "إنها أقوى من الأساليب السابقة لأنه من خلال عدم استخدام البيانات البشرية أو الخبرة البشرية بأي شكل من الأشكال ، أزلنا قيود المعرفة البشرية ويمكنها إنشاء المعرفة بنفسها".

يكتسب البرنامج مهاراته من خلال إجراء يسمى التعلم المعزز. إنها نفس الطريقة التي يساعد بها التوازن من ناحية والركبتين من ناحية أخرى البشر على إتقان فن ركوب الدراجات. عندما يلعب AlphaGo Zero حركة جيدة ، فمن المرجح أن يكافأ بالفوز. عندما يقوم بحركة سيئة ، فإنه يقترب من الخسارة.

ديميس هاسابيس ، الرئيس التنفيذي لشركة DeepMind: "بالنسبة لنا ، لم يكن AlphaGo مجرد الفوز بلعبة Go." الصورة: DeepMind / Nature

يوجد في قلب البرنامج مجموعة من "الخلايا العصبية" البرمجية التي ترتبط ببعضها البعض لتشكيل شبكة عصبية اصطناعية. في كل دورة من اللعبة ، تنظر الشبكة إلى مواضع القطع على لوحة Go وتحسب الحركات التي يمكن إجراؤها بعد ذلك واحتمالية أن تؤدي إلى الفوز. بعد كل لعبة ، تقوم بتحديث شبكتها العصبية ، مما يجعلها لاعبًا أقوى للمباراة التالية. على الرغم من أنه أفضل بكثير من الإصدارات السابقة ، فإن AlphaGo Zero هو برنامج أبسط ويتقن اللعبة بشكل أسرع على الرغم من التدريب على بيانات أقل وتشغيله على جهاز كمبيوتر أصغر. قال سيلفر إنه إذا أعطيت مزيدًا من الوقت ، كان من الممكن أن تكون قد تعلمت القواعد بنفسها أيضًا.

ما هو الذكاء الاصطناعي؟

للذكاء الاصطناعي تعريفات مختلفة ، ولكن بشكل عام يعني البرنامج الذي يستخدم البيانات لبناء نموذج لبعض جوانب العالم. ثم يتم استخدام هذا النموذج لاتخاذ قرارات مستنيرة وتنبؤات حول الأحداث المستقبلية. تُستخدم التكنولوجيا على نطاق واسع ، لتوفير التعرف على الكلام والوجه ، وترجمة اللغة ، والتوصيات الشخصية بشأن مواقع الموسيقى والأفلام والتسوق. في المستقبل ، يمكن أن توفر سيارات بدون سائق ، ومساعدين شخصيين أذكياء ، وشبكات طاقة ذكية. يمكن للذكاء الاصطناعي أن يجعل المنظمات أكثر فعالية وكفاءة ، لكن التكنولوجيا تثير قضايا خطيرة تتعلق بالأخلاقيات والحوكمة والخصوصية والقانون.

كتب الباحثون في دورية Nature ، كيف بدأ AlphaGo Zero بشكل رهيب ، وتقدم إلى مستوى الهاوي الساذج ، وفي النهاية نشر حركات إستراتيجية للغاية يستخدمها الأساتذة الكبار ، كل ذلك في غضون أيام. اكتشف مسرحية واحدة مشتركة تسمى أ جوسيكي، في أول 10 ساعات. سرعان ما تبعت الحركات الأخرى ، بأسماء مثل "الانهيار الجليدي الصغير" و "الكماشة تتحرك الفارس". بعد ثلاثة أيام ، اكتشف البرنامج تحركات جديدة تمامًا يدرسها الخبراء البشريون الآن. ومن المثير للاهتمام أن البرنامج قد استوعب بعض الحركات المتقدمة قبل وقت طويل من اكتشافه لحركات أبسط ، مثل نمط يسمى سلم يميل لاعبو Go البشر إلى فهمه مبكرًا.

تتضمن هذه المقالة المحتوى المستضاف على gfycat.com. نطلب إذنك قبل تحميل أي شيء ، حيث قد يستخدم المزود ملفات تعريف الارتباط وتقنيات أخرى. لعرض هذا المحتوى ، انقر فوق & # x27 السماح ومتابعة & # x27.

قال حسابيس: "يكتشف بعض أفضل المسرحيات ، جوسيكيس ، ثم يتخطى تلك المسرحيات ويجد شيئًا أفضل". "يمكنك أن ترى أنه يعيد اكتشاف آلاف السنين من المعرفة البشرية."

قالت إليني فاسيلاكي ، أستاذة علم الأعصاب الحسابي في جامعة شيفيلد ، إنه كان إنجازًا رائعًا. وقالت: "قد يعني هذا أنه من خلال عدم إشراك خبير بشري في تدريبه ، يكتشف AlphaGo حركات أفضل تتجاوز الذكاء البشري في هذه اللعبة المحددة". لكنها أشارت إلى أنه في حين أن أجهزة الكمبيوتر تتفوق على البشر في الألعاب التي تنطوي على حسابات معقدة ودقة ، فإنها بعيدة كل البعد عن مطابقة البشر في مهام أخرى. قالت: "يفشل الذكاء الاصطناعي في المهام التي من المستغرب أن تكون سهلة على البشر". "انظر فقط إلى أداء الإنسان الآلي في المهام اليومية مثل المشي والجري وركل الكرة."

وصف توم ميتشل ، عالم الكمبيوتر في جامعة كارنيجي ميلون في بيتسبرغ ، AlphaGo Zero بأنه "إنجاز هندسي بارز". وأضاف: "إنه يغلق الكتاب حول ما إذا كان البشر سيلحقون بأجهزة الكمبيوتر في Go. أعتقد أن الجواب لا. لكنه يفتح كتابًا جديدًا ، حيث تعلم أجهزة الكمبيوتر البشر كيفية اللعب بشكل أفضل مما اعتادوا عليه ".

يصف David Silver كيف يتعلم برنامج الذكاء الاصطناعي AlphaGo Zero كيف يلعب Go. الائتمان: DeepMind


& # x27It & # x27s قادرة على إنشاء المعرفة بنفسها & # x27: تكشف Google عن الذكاء الاصطناعي الذي يتعلم من تلقاء نفسه

تغلب AlphaGo Zero على سلفه لعام 2015 ، الذي هزم الأستاذ الكبير Lee Sedol ، 100 لعبة من Go to 0.

تغلب AlphaGo Zero على سلفه لعام 2015 ، الذي هزم الأستاذ الكبير Lee Sedol ، 100 لعبة من Go to 0.

في إنجاز كبير للذكاء الاصطناعي ، استغرق AlphaGo Zero ثلاثة أيام فقط لإتقان لعبة اللوحة الصينية القديمة Go. بدون مساعدة بشرية

آخر تعديل يوم الأربعاء 14 فبراير 2018 21.10 بتوقيت جرينتش

كشفت مجموعة الذكاء الاصطناعي التابعة لشركة Google ، DeepMind ، النقاب عن أحدث تجسيد لبرنامج Go-play الخاص بها ، AlphaGo - وهو ذكاء اصطناعي قوي لدرجة أنه استمد آلاف السنين من المعرفة البشرية باللعبة قبل اختراع حركات أفضل خاصة به ، كل ذلك في مساحة ثلاثة ايام.

تم الترحيب ببرنامج الذكاء الاصطناعي ، الذي أطلق عليه اسم AlphaGo Zero ، باعتباره تقدمًا كبيرًا لأنه أتقن لعبة اللوحة الصينية القديمة من الصفر ، وبدون مساعدة بشرية بخلاف إخباره بالقواعد. في المباريات ضد نسخة 2015 ، التي فازت بشكل مشهور على لي سيدول ، الأستاذ الكوري الجنوبي الكبير ، في العام التالي ، فاز AlphaGo Zero بنسبة 100 إلى 0.

يمثل هذا الإنجاز علامة فارقة على طريق الذكاء الاصطناعي للأغراض العامة التي يمكنها القيام بأكثر من ضرب البشر في ألعاب الطاولة. نظرًا لأن AlphaGo Zero يتعلم من تلقاء نفسه من صفحة بيضاء ، يمكن الآن تحويل مواهبه إلى مجموعة من مشاكل العالم الحقيقي.

في DeepMind ، ومقرها لندن ، يعمل AlphaGo Zero على اكتشاف كيفية طي البروتينات ، وهو تحد علمي هائل يمكن أن يمنح اكتشاف الدواء حقنة في الذراع تشتد الحاجة إليها.

المباراة الثالثة من AlphaGo و Lee Sedol في مارس 2016. الصورة: Erikbenson

قال ديميس هاسابيس ، الرئيس التنفيذي لشركة DeepMind والباحث في الفريق: "بالنسبة لنا ، لم يكن AlphaGo مجرد الفوز بلعبة Go". "لقد كانت أيضًا خطوة كبيرة بالنسبة لنا نحو بناء هذه الخوارزميات ذات الأغراض العامة." توصف معظم أنظمة الذكاء الاصطناعي بأنها "ضيقة" لأنها تؤدي مهمة واحدة فقط ، مثل ترجمة اللغات أو التعرف على الوجوه ، لكن الذكاء الاصطناعي للأغراض العامة يمكن أن يتفوق على البشر في العديد من المهام المختلفة. في العقد القادم ، يعتقد حسابيس أن أحفاد AlphaGo سيعملون جنبًا إلى جنب مع البشر كخبراء علميين وطبيين.

تعلمت الإصدارات السابقة من AlphaGo تحركاتها من خلال التدريب على آلاف الألعاب التي يلعبها هواة ومحترفون بشريون أقوياء. لم يكن لدى AlphaGo Zero مثل هذه المساعدة. بدلاً من ذلك ، تعلمت بحتة من خلال لعب نفسها ملايين المرات. بدأت بوضع الحجارة على لوحة Go بشكل عشوائي ولكنها تحسنت بسرعة عندما اكتشفت استراتيجيات الفوز.

يصف David Silver كيف يكتشف برنامج Go play AI ، AlphaGo Zero ، معرفة جديدة من البداية. الائتمان: DeepMind

قال ديفيد سيلفر ، الباحث الرئيسي في AlphaGo: "إنها أقوى من الأساليب السابقة لأنه من خلال عدم استخدام البيانات البشرية أو الخبرة البشرية بأي شكل من الأشكال ، أزلنا قيود المعرفة البشرية ويمكنها إنشاء المعرفة بنفسها".

يكتسب البرنامج مهاراته من خلال إجراء يسمى التعلم المعزز. إنها نفس الطريقة التي يساعد بها التوازن من ناحية والركبتين من ناحية أخرى البشر على إتقان فن ركوب الدراجات. عندما يلعب AlphaGo Zero حركة جيدة ، فمن المرجح أن يكافأ بالفوز. عندما يقوم بحركة سيئة ، فإنه يقترب من الخسارة.

ديميس هاسابيس ، الرئيس التنفيذي لشركة DeepMind: "بالنسبة لنا ، لم يكن AlphaGo مجرد الفوز بلعبة Go." الصورة: DeepMind / Nature

يوجد في قلب البرنامج مجموعة من "الخلايا العصبية" البرمجية التي ترتبط ببعضها البعض لتشكيل شبكة عصبية اصطناعية. في كل دورة من اللعبة ، تنظر الشبكة إلى مواضع القطع على لوحة Go وتحسب الحركات التي يمكن إجراؤها بعد ذلك واحتمالية أن تؤدي إلى الفوز. بعد كل لعبة ، تقوم بتحديث شبكتها العصبية ، مما يجعلها لاعبًا أقوى للمباراة التالية. على الرغم من أنه أفضل بكثير من الإصدارات السابقة ، فإن AlphaGo Zero هو برنامج أبسط ويتقن اللعبة بشكل أسرع على الرغم من التدريب على بيانات أقل وتشغيله على جهاز كمبيوتر أصغر. قال سيلفر إنه إذا أعطيت مزيدًا من الوقت ، كان من الممكن أن تكون قد تعلمت القواعد بنفسها أيضًا.

ما هو الذكاء الاصطناعي؟

للذكاء الاصطناعي تعريفات مختلفة ، ولكن بشكل عام يعني البرنامج الذي يستخدم البيانات لبناء نموذج لبعض جوانب العالم. ثم يتم استخدام هذا النموذج لاتخاذ قرارات مستنيرة وتنبؤات حول الأحداث المستقبلية. تُستخدم التكنولوجيا على نطاق واسع ، لتوفير التعرف على الكلام والوجه ، وترجمة اللغة ، والتوصيات الشخصية بشأن مواقع الموسيقى والأفلام والتسوق. في المستقبل ، يمكن أن توفر سيارات بدون سائق ، ومساعدين شخصيين أذكياء ، وشبكات طاقة ذكية. يمكن للذكاء الاصطناعي أن يجعل المنظمات أكثر فعالية وكفاءة ، لكن التكنولوجيا تثير قضايا خطيرة تتعلق بالأخلاقيات والحوكمة والخصوصية والقانون.

كتب الباحثون في دورية Nature ، كيف بدأ AlphaGo Zero بشكل رهيب ، وتقدم إلى مستوى الهاوي الساذج ، وفي النهاية نشر حركات إستراتيجية للغاية يستخدمها الأساتذة الكبار ، كل ذلك في غضون أيام. اكتشف مسرحية واحدة مشتركة تسمى أ جوسيكي، في أول 10 ساعات. سرعان ما تبعت الحركات الأخرى ، بأسماء مثل "الانهيار الجليدي الصغير" و "الكماشة تتحرك الفارس". بعد ثلاثة أيام ، اكتشف البرنامج تحركات جديدة تمامًا يدرسها الخبراء البشريون الآن. ومن المثير للاهتمام أن البرنامج قد استوعب بعض الحركات المتقدمة قبل وقت طويل من اكتشافه لحركات أبسط ، مثل نمط يسمى سلم يميل لاعبو Go البشر إلى فهمه مبكرًا.

تتضمن هذه المقالة المحتوى المستضاف على gfycat.com. نطلب إذنك قبل تحميل أي شيء ، حيث قد يستخدم المزود ملفات تعريف الارتباط وتقنيات أخرى. لعرض هذا المحتوى ، انقر فوق & # x27 السماح ومتابعة & # x27.

قال حسابيس: "يكتشف بعض أفضل المسرحيات ، جوسيكيس ، ثم يتخطى تلك المسرحيات ويجد شيئًا أفضل". "يمكنك أن ترى أنه يعيد اكتشاف آلاف السنين من المعرفة البشرية."

قالت إليني فاسيلاكي ، أستاذة علم الأعصاب الحسابي في جامعة شيفيلد ، إنه كان إنجازًا رائعًا. وقالت: "قد يعني هذا أنه من خلال عدم إشراك خبير بشري في تدريبه ، يكتشف AlphaGo حركات أفضل تتجاوز الذكاء البشري في هذه اللعبة المحددة". لكنها أشارت إلى أنه في حين أن أجهزة الكمبيوتر تتفوق على البشر في الألعاب التي تنطوي على حسابات معقدة ودقة ، إلا أنها بعيدة كل البعد عن مطابقة البشر في مهام أخرى. قالت: "يفشل الذكاء الاصطناعي في المهام التي من المستغرب أن تكون سهلة على البشر". "انظر فقط إلى أداء الإنسان الآلي في المهام اليومية مثل المشي والجري وركل الكرة."

وصف توم ميتشل ، عالم الكمبيوتر في جامعة كارنيجي ميلون في بيتسبرغ ، AlphaGo Zero بأنه "إنجاز هندسي بارز". وأضاف: "إنه يغلق الكتاب حول ما إذا كان البشر سيلحقون بأجهزة الكمبيوتر في Go. أعتقد أن الجواب لا. لكنه يفتح كتابًا جديدًا ، حيث تعلم أجهزة الكمبيوتر البشر كيفية اللعب بشكل أفضل مما اعتادوا عليه ".

يصف David Silver كيف يتعلم برنامج الذكاء الاصطناعي AlphaGo Zero كيف يلعب Go. الائتمان: DeepMind


& # x27It & # x27s قادرة على إنشاء المعرفة بنفسها & # x27: تكشف Google عن الذكاء الاصطناعي الذي يتعلم من تلقاء نفسه

تغلب AlphaGo Zero على سلفه لعام 2015 ، الذي هزم الأستاذ الكبير Lee Sedol ، 100 لعبة من Go to 0.

تغلب AlphaGo Zero على سلفه لعام 2015 ، الذي هزم الأستاذ الكبير Lee Sedol ، 100 لعبة من Go to 0.

في إنجاز كبير للذكاء الاصطناعي ، استغرق AlphaGo Zero ثلاثة أيام فقط لإتقان لعبة اللوحة الصينية القديمة Go. بدون مساعدة بشرية

آخر تعديل يوم الأربعاء 14 فبراير 2018 21.10 بتوقيت جرينتش

كشفت مجموعة الذكاء الاصطناعي التابعة لشركة Google ، DeepMind ، النقاب عن أحدث تجسيد لبرنامج Go-play الخاص بها ، AlphaGo - وهو ذكاء اصطناعي قوي للغاية لدرجة أنه استمد آلاف السنين من المعرفة البشرية باللعبة قبل اختراع حركات أفضل خاصة به ، كل ذلك في مساحة ثلاثة ايام.

تم الترحيب ببرنامج الذكاء الاصطناعي ، الذي أطلق عليه اسم AlphaGo Zero ، باعتباره تقدمًا كبيرًا لأنه أتقن لعبة اللوحة الصينية القديمة من الصفر ، وبدون مساعدة بشرية بخلاف إخباره بالقواعد. في المباريات ضد نسخة 2015 ، التي فازت بشكل مشهور على لي سيدول ، الأستاذ الكوري الجنوبي الكبير ، في العام التالي ، فاز AlphaGo Zero بنسبة 100 إلى 0.

يمثل هذا الإنجاز علامة فارقة على طريق الذكاء الاصطناعي للأغراض العامة التي يمكنها القيام بأكثر من ضرب البشر في ألعاب الطاولة. نظرًا لأن AlphaGo Zero يتعلم من تلقاء نفسه من صفحة بيضاء ، يمكن الآن تحويل مواهبه إلى مجموعة من مشاكل العالم الحقيقي.

في DeepMind ، ومقرها لندن ، يعمل AlphaGo Zero على اكتشاف كيفية طي البروتينات ، وهو تحد علمي هائل يمكن أن يمنح اكتشاف الدواء حقنة في الذراع تشتد الحاجة إليها.

المباراة الثالثة من AlphaGo و Lee Sedol في مارس 2016. الصورة: Erikbenson

قال ديميس هاسابيس ، الرئيس التنفيذي لشركة DeepMind والباحث في الفريق: "بالنسبة لنا ، لم يكن AlphaGo مجرد الفوز بلعبة Go". "لقد كانت أيضًا خطوة كبيرة بالنسبة لنا نحو بناء هذه الخوارزميات ذات الأغراض العامة." Most AIs are described as “narrow” because they perform only a single task, such as translating languages or recognising faces, but general-purpose AIs could potentially outperform humans at many different tasks. In the next decade, Hassabis believes that AlphaGo’s descendants will work alongside humans as scientific and medical experts.

Previous versions of AlphaGo learned their moves by training on thousands of games played by strong human amateurs and professionals. AlphaGo Zero had no such help. Instead, it learned purely by playing itself millions of times over. It began by placing stones on the Go board at random but swiftly improved as it discovered winning strategies.

David Silver describes how the Go playing AI program, AlphaGo Zero, discovers new knowledge from scratch. Credit: DeepMind

“It’s more powerful than previous approaches because by not using human data, or human expertise in any fashion, we’ve removed the constraints of human knowledge and it is able to create knowledge itself,” said David Silver, AlphaGo’s lead researcher.

The program amasses its skill through a procedure called reinforcement learning. It is the same method by which balance on the one hand, and scuffed knees on the other, help humans master the art of bike riding. When AlphaGo Zero plays a good move, it is more likely to be rewarded with a win. When it makes a bad move, it edges closer to a loss.

Demis Hassabis, CEO of DeepMind: ‘For us, AlphaGo wasn’t just about winning the game of Go.’ Photograph: DeepMind/Nature

At the heart of the program is a group of software “neurons” that are connected together to form an artificial neural network. For each turn of the game, the network looks at the positions of the pieces on the Go board and calculates which moves might be made next and probability of them leading to a win. After each game, it updates its neural network, making it stronger player for the next bout. Though far better than previous versions, AlphaGo Zero is a simpler program and mastered the game faster despite training on less data and running on a smaller computer. Given more time, it could have learned the rules for itself too, Silver said.

What is AI?

Artificial Intelligence has various definitions, but in general it means a program that uses data to build a model of some aspect of the world. This model is then used to make informed decisions and predictions about future events. The technology is used widely, to provide speech and face recognition, language translation, and personal recommendations on music, film and shopping sites. In the future, it could deliver driverless cars, smart personal assistants, and intelligent energy grids. AI has the potential to make organisations more effective and efficient, but the technology raises serious issues of ethics, governance, privacy and law.

Writing in the journal Nature, the researchers describe how AlphaGo Zero started off terribly, progressed to the level of a naive amateur, and ultimately deployed highly strategic moves used by grandmasters, all in a matter of days. It discovered one common play, called a joseki, in the first 10 hours. Other moves, with names such as “small avalanche” and “knight’s move pincer” soon followed. After three days, the program had discovered brand new moves that human experts are now studying. Intriguingly, the program grasped some advanced moves long before it discovered simpler ones, such as a pattern called a ladder that human Go players tend to grasp early on.

This article includes content hosted on gfycat.com . نطلب إذنك قبل تحميل أي شيء ، حيث قد يستخدم المزود ملفات تعريف الارتباط وتقنيات أخرى. لعرض هذا المحتوى ، انقر فوق & # x27 السماح ومتابعة & # x27.

“It discovers some best plays, josekis, and then it goes beyond those plays and finds something even better,” said Hassabis. “You can see it rediscovering thousands of years of human knowledge.”

Eleni Vasilaki, professor of computational neuroscience at Sheffield University, said it was an impressive feat. “This may very well imply that by not involving a human expert in its training, AlphaGo discovers better moves that surpass human intelligence on this specific game,” she said. But she pointed out that, while computers are beating humans at games that involve complex calculations and precision, they are far from even matching humans at other tasks. “AI fails in tasks that are surprisingly easy for humans,” she said. “Just look at the performance of a humanoid robot in everyday tasks such as walking, running and kicking a ball.”

Tom Mitchell, a computer scientist at Carnegie Mellon University in Pittsburgh called AlphaGo Zero an “outstanding engineering accomplishment”. He added: “It closes the book on whether humans are ever going to catch up with computers at Go. I guess the answer is no. But it opens a new book, which is where computers teach humans how to play Go better than they used to.”

David Silver describes how the AI program AlphaGo Zero learns to play Go. Credit: DeepMind


'It's able to create knowledge itself': Google unveils AI that learns on its own

AlphaGo Zero beat its 2015 predecessor, which vanquished grandmaster Lee Sedol, 100 games of Go to 0.

AlphaGo Zero beat its 2015 predecessor, which vanquished grandmaster Lee Sedol, 100 games of Go to 0.

In a major breakthrough for artificial intelligence, AlphaGo Zero took just three days to master the ancient Chinese board game of Go . with no human help

Last modified on Wed 14 Feb 2018 21.10 GMT

Google’s artificial intelligence group, DeepMind, has unveiled the latest incarnation of its Go-playing program, AlphaGo – an AI so powerful that it derived thousands of years of human knowledge of the game before inventing better moves of its own, all in the space of three days.

Named AlphaGo Zero, the AI program has been hailed as a major advance because it mastered the ancient Chinese board game from scratch, and with no human help beyond being told the rules. In games against the 2015 version, which famously beat Lee Sedol, the South Korean grandmaster, in the following year, AlphaGo Zero won 100 to 0.

The feat marks a milestone on the road to general-purpose AIs that can do more than thrash humans at board games. Because AlphaGo Zero learns on its own from a blank slate, its talents can now be turned to a host of real-world problems.

At DeepMind, which is based in London, AlphaGo Zero is working out how proteins fold, a massive scientific challenge that could give drug discovery a sorely needed shot in the arm.

Match 3 of AlphaGo vs Lee Sedol in March 2016. Photograph: Erikbenson

“For us, AlphaGo wasn’t just about winning the game of Go,” said Demis Hassabis, CEO of DeepMind and a researcher on the team. “It was also a big step for us towards building these general-purpose algorithms.” Most AIs are described as “narrow” because they perform only a single task, such as translating languages or recognising faces, but general-purpose AIs could potentially outperform humans at many different tasks. In the next decade, Hassabis believes that AlphaGo’s descendants will work alongside humans as scientific and medical experts.

Previous versions of AlphaGo learned their moves by training on thousands of games played by strong human amateurs and professionals. AlphaGo Zero had no such help. Instead, it learned purely by playing itself millions of times over. It began by placing stones on the Go board at random but swiftly improved as it discovered winning strategies.

David Silver describes how the Go playing AI program, AlphaGo Zero, discovers new knowledge from scratch. Credit: DeepMind

“It’s more powerful than previous approaches because by not using human data, or human expertise in any fashion, we’ve removed the constraints of human knowledge and it is able to create knowledge itself,” said David Silver, AlphaGo’s lead researcher.

The program amasses its skill through a procedure called reinforcement learning. It is the same method by which balance on the one hand, and scuffed knees on the other, help humans master the art of bike riding. When AlphaGo Zero plays a good move, it is more likely to be rewarded with a win. When it makes a bad move, it edges closer to a loss.

Demis Hassabis, CEO of DeepMind: ‘For us, AlphaGo wasn’t just about winning the game of Go.’ Photograph: DeepMind/Nature

At the heart of the program is a group of software “neurons” that are connected together to form an artificial neural network. For each turn of the game, the network looks at the positions of the pieces on the Go board and calculates which moves might be made next and probability of them leading to a win. After each game, it updates its neural network, making it stronger player for the next bout. Though far better than previous versions, AlphaGo Zero is a simpler program and mastered the game faster despite training on less data and running on a smaller computer. Given more time, it could have learned the rules for itself too, Silver said.

What is AI?

Artificial Intelligence has various definitions, but in general it means a program that uses data to build a model of some aspect of the world. This model is then used to make informed decisions and predictions about future events. The technology is used widely, to provide speech and face recognition, language translation, and personal recommendations on music, film and shopping sites. In the future, it could deliver driverless cars, smart personal assistants, and intelligent energy grids. AI has the potential to make organisations more effective and efficient, but the technology raises serious issues of ethics, governance, privacy and law.

Writing in the journal Nature, the researchers describe how AlphaGo Zero started off terribly, progressed to the level of a naive amateur, and ultimately deployed highly strategic moves used by grandmasters, all in a matter of days. It discovered one common play, called a joseki, in the first 10 hours. Other moves, with names such as “small avalanche” and “knight’s move pincer” soon followed. After three days, the program had discovered brand new moves that human experts are now studying. Intriguingly, the program grasped some advanced moves long before it discovered simpler ones, such as a pattern called a ladder that human Go players tend to grasp early on.

This article includes content hosted on gfycat.com . نطلب إذنك قبل تحميل أي شيء ، حيث قد يستخدم المزود ملفات تعريف الارتباط وتقنيات أخرى. لعرض هذا المحتوى ، انقر فوق & # x27 السماح ومتابعة & # x27.

“It discovers some best plays, josekis, and then it goes beyond those plays and finds something even better,” said Hassabis. “You can see it rediscovering thousands of years of human knowledge.”

Eleni Vasilaki, professor of computational neuroscience at Sheffield University, said it was an impressive feat. “This may very well imply that by not involving a human expert in its training, AlphaGo discovers better moves that surpass human intelligence on this specific game,” she said. But she pointed out that, while computers are beating humans at games that involve complex calculations and precision, they are far from even matching humans at other tasks. “AI fails in tasks that are surprisingly easy for humans,” she said. “Just look at the performance of a humanoid robot in everyday tasks such as walking, running and kicking a ball.”

Tom Mitchell, a computer scientist at Carnegie Mellon University in Pittsburgh called AlphaGo Zero an “outstanding engineering accomplishment”. He added: “It closes the book on whether humans are ever going to catch up with computers at Go. I guess the answer is no. But it opens a new book, which is where computers teach humans how to play Go better than they used to.”

David Silver describes how the AI program AlphaGo Zero learns to play Go. Credit: DeepMind


'It's able to create knowledge itself': Google unveils AI that learns on its own

AlphaGo Zero beat its 2015 predecessor, which vanquished grandmaster Lee Sedol, 100 games of Go to 0.

AlphaGo Zero beat its 2015 predecessor, which vanquished grandmaster Lee Sedol, 100 games of Go to 0.

In a major breakthrough for artificial intelligence, AlphaGo Zero took just three days to master the ancient Chinese board game of Go . with no human help

Last modified on Wed 14 Feb 2018 21.10 GMT

Google’s artificial intelligence group, DeepMind, has unveiled the latest incarnation of its Go-playing program, AlphaGo – an AI so powerful that it derived thousands of years of human knowledge of the game before inventing better moves of its own, all in the space of three days.

Named AlphaGo Zero, the AI program has been hailed as a major advance because it mastered the ancient Chinese board game from scratch, and with no human help beyond being told the rules. In games against the 2015 version, which famously beat Lee Sedol, the South Korean grandmaster, in the following year, AlphaGo Zero won 100 to 0.

The feat marks a milestone on the road to general-purpose AIs that can do more than thrash humans at board games. Because AlphaGo Zero learns on its own from a blank slate, its talents can now be turned to a host of real-world problems.

At DeepMind, which is based in London, AlphaGo Zero is working out how proteins fold, a massive scientific challenge that could give drug discovery a sorely needed shot in the arm.

Match 3 of AlphaGo vs Lee Sedol in March 2016. Photograph: Erikbenson

“For us, AlphaGo wasn’t just about winning the game of Go,” said Demis Hassabis, CEO of DeepMind and a researcher on the team. “It was also a big step for us towards building these general-purpose algorithms.” Most AIs are described as “narrow” because they perform only a single task, such as translating languages or recognising faces, but general-purpose AIs could potentially outperform humans at many different tasks. In the next decade, Hassabis believes that AlphaGo’s descendants will work alongside humans as scientific and medical experts.

Previous versions of AlphaGo learned their moves by training on thousands of games played by strong human amateurs and professionals. AlphaGo Zero had no such help. Instead, it learned purely by playing itself millions of times over. It began by placing stones on the Go board at random but swiftly improved as it discovered winning strategies.

David Silver describes how the Go playing AI program, AlphaGo Zero, discovers new knowledge from scratch. Credit: DeepMind

“It’s more powerful than previous approaches because by not using human data, or human expertise in any fashion, we’ve removed the constraints of human knowledge and it is able to create knowledge itself,” said David Silver, AlphaGo’s lead researcher.

The program amasses its skill through a procedure called reinforcement learning. It is the same method by which balance on the one hand, and scuffed knees on the other, help humans master the art of bike riding. When AlphaGo Zero plays a good move, it is more likely to be rewarded with a win. When it makes a bad move, it edges closer to a loss.

Demis Hassabis, CEO of DeepMind: ‘For us, AlphaGo wasn’t just about winning the game of Go.’ Photograph: DeepMind/Nature

At the heart of the program is a group of software “neurons” that are connected together to form an artificial neural network. For each turn of the game, the network looks at the positions of the pieces on the Go board and calculates which moves might be made next and probability of them leading to a win. After each game, it updates its neural network, making it stronger player for the next bout. Though far better than previous versions, AlphaGo Zero is a simpler program and mastered the game faster despite training on less data and running on a smaller computer. Given more time, it could have learned the rules for itself too, Silver said.

What is AI?

Artificial Intelligence has various definitions, but in general it means a program that uses data to build a model of some aspect of the world. This model is then used to make informed decisions and predictions about future events. The technology is used widely, to provide speech and face recognition, language translation, and personal recommendations on music, film and shopping sites. In the future, it could deliver driverless cars, smart personal assistants, and intelligent energy grids. AI has the potential to make organisations more effective and efficient, but the technology raises serious issues of ethics, governance, privacy and law.

Writing in the journal Nature, the researchers describe how AlphaGo Zero started off terribly, progressed to the level of a naive amateur, and ultimately deployed highly strategic moves used by grandmasters, all in a matter of days. It discovered one common play, called a joseki, in the first 10 hours. Other moves, with names such as “small avalanche” and “knight’s move pincer” soon followed. After three days, the program had discovered brand new moves that human experts are now studying. Intriguingly, the program grasped some advanced moves long before it discovered simpler ones, such as a pattern called a ladder that human Go players tend to grasp early on.

This article includes content hosted on gfycat.com . نطلب إذنك قبل تحميل أي شيء ، حيث قد يستخدم المزود ملفات تعريف الارتباط وتقنيات أخرى. لعرض هذا المحتوى ، انقر فوق & # x27 السماح ومتابعة & # x27.

“It discovers some best plays, josekis, and then it goes beyond those plays and finds something even better,” said Hassabis. “You can see it rediscovering thousands of years of human knowledge.”

Eleni Vasilaki, professor of computational neuroscience at Sheffield University, said it was an impressive feat. “This may very well imply that by not involving a human expert in its training, AlphaGo discovers better moves that surpass human intelligence on this specific game,” she said. But she pointed out that, while computers are beating humans at games that involve complex calculations and precision, they are far from even matching humans at other tasks. “AI fails in tasks that are surprisingly easy for humans,” she said. “Just look at the performance of a humanoid robot in everyday tasks such as walking, running and kicking a ball.”

Tom Mitchell, a computer scientist at Carnegie Mellon University in Pittsburgh called AlphaGo Zero an “outstanding engineering accomplishment”. He added: “It closes the book on whether humans are ever going to catch up with computers at Go. I guess the answer is no. But it opens a new book, which is where computers teach humans how to play Go better than they used to.”

David Silver describes how the AI program AlphaGo Zero learns to play Go. Credit: DeepMind


'It's able to create knowledge itself': Google unveils AI that learns on its own

AlphaGo Zero beat its 2015 predecessor, which vanquished grandmaster Lee Sedol, 100 games of Go to 0.

AlphaGo Zero beat its 2015 predecessor, which vanquished grandmaster Lee Sedol, 100 games of Go to 0.

In a major breakthrough for artificial intelligence, AlphaGo Zero took just three days to master the ancient Chinese board game of Go . with no human help

Last modified on Wed 14 Feb 2018 21.10 GMT

Google’s artificial intelligence group, DeepMind, has unveiled the latest incarnation of its Go-playing program, AlphaGo – an AI so powerful that it derived thousands of years of human knowledge of the game before inventing better moves of its own, all in the space of three days.

Named AlphaGo Zero, the AI program has been hailed as a major advance because it mastered the ancient Chinese board game from scratch, and with no human help beyond being told the rules. In games against the 2015 version, which famously beat Lee Sedol, the South Korean grandmaster, in the following year, AlphaGo Zero won 100 to 0.

The feat marks a milestone on the road to general-purpose AIs that can do more than thrash humans at board games. Because AlphaGo Zero learns on its own from a blank slate, its talents can now be turned to a host of real-world problems.

At DeepMind, which is based in London, AlphaGo Zero is working out how proteins fold, a massive scientific challenge that could give drug discovery a sorely needed shot in the arm.

Match 3 of AlphaGo vs Lee Sedol in March 2016. Photograph: Erikbenson

“For us, AlphaGo wasn’t just about winning the game of Go,” said Demis Hassabis, CEO of DeepMind and a researcher on the team. “It was also a big step for us towards building these general-purpose algorithms.” Most AIs are described as “narrow” because they perform only a single task, such as translating languages or recognising faces, but general-purpose AIs could potentially outperform humans at many different tasks. In the next decade, Hassabis believes that AlphaGo’s descendants will work alongside humans as scientific and medical experts.

Previous versions of AlphaGo learned their moves by training on thousands of games played by strong human amateurs and professionals. AlphaGo Zero had no such help. Instead, it learned purely by playing itself millions of times over. It began by placing stones on the Go board at random but swiftly improved as it discovered winning strategies.

David Silver describes how the Go playing AI program, AlphaGo Zero, discovers new knowledge from scratch. Credit: DeepMind

“It’s more powerful than previous approaches because by not using human data, or human expertise in any fashion, we’ve removed the constraints of human knowledge and it is able to create knowledge itself,” said David Silver, AlphaGo’s lead researcher.

The program amasses its skill through a procedure called reinforcement learning. It is the same method by which balance on the one hand, and scuffed knees on the other, help humans master the art of bike riding. When AlphaGo Zero plays a good move, it is more likely to be rewarded with a win. When it makes a bad move, it edges closer to a loss.

Demis Hassabis, CEO of DeepMind: ‘For us, AlphaGo wasn’t just about winning the game of Go.’ Photograph: DeepMind/Nature

At the heart of the program is a group of software “neurons” that are connected together to form an artificial neural network. For each turn of the game, the network looks at the positions of the pieces on the Go board and calculates which moves might be made next and probability of them leading to a win. After each game, it updates its neural network, making it stronger player for the next bout. Though far better than previous versions, AlphaGo Zero is a simpler program and mastered the game faster despite training on less data and running on a smaller computer. Given more time, it could have learned the rules for itself too, Silver said.

What is AI?

Artificial Intelligence has various definitions, but in general it means a program that uses data to build a model of some aspect of the world. This model is then used to make informed decisions and predictions about future events. The technology is used widely, to provide speech and face recognition, language translation, and personal recommendations on music, film and shopping sites. In the future, it could deliver driverless cars, smart personal assistants, and intelligent energy grids. AI has the potential to make organisations more effective and efficient, but the technology raises serious issues of ethics, governance, privacy and law.

Writing in the journal Nature, the researchers describe how AlphaGo Zero started off terribly, progressed to the level of a naive amateur, and ultimately deployed highly strategic moves used by grandmasters, all in a matter of days. It discovered one common play, called a joseki, in the first 10 hours. Other moves, with names such as “small avalanche” and “knight’s move pincer” soon followed. After three days, the program had discovered brand new moves that human experts are now studying. Intriguingly, the program grasped some advanced moves long before it discovered simpler ones, such as a pattern called a ladder that human Go players tend to grasp early on.

This article includes content hosted on gfycat.com . نطلب إذنك قبل تحميل أي شيء ، حيث قد يستخدم المزود ملفات تعريف الارتباط وتقنيات أخرى. لعرض هذا المحتوى ، انقر فوق & # x27 السماح ومتابعة & # x27.

“It discovers some best plays, josekis, and then it goes beyond those plays and finds something even better,” said Hassabis. “You can see it rediscovering thousands of years of human knowledge.”

Eleni Vasilaki, professor of computational neuroscience at Sheffield University, said it was an impressive feat. “This may very well imply that by not involving a human expert in its training, AlphaGo discovers better moves that surpass human intelligence on this specific game,” she said. But she pointed out that, while computers are beating humans at games that involve complex calculations and precision, they are far from even matching humans at other tasks. “AI fails in tasks that are surprisingly easy for humans,” she said. “Just look at the performance of a humanoid robot in everyday tasks such as walking, running and kicking a ball.”

Tom Mitchell, a computer scientist at Carnegie Mellon University in Pittsburgh called AlphaGo Zero an “outstanding engineering accomplishment”. He added: “It closes the book on whether humans are ever going to catch up with computers at Go. I guess the answer is no. But it opens a new book, which is where computers teach humans how to play Go better than they used to.”

David Silver describes how the AI program AlphaGo Zero learns to play Go. Credit: DeepMind


'It's able to create knowledge itself': Google unveils AI that learns on its own

AlphaGo Zero beat its 2015 predecessor, which vanquished grandmaster Lee Sedol, 100 games of Go to 0.

AlphaGo Zero beat its 2015 predecessor, which vanquished grandmaster Lee Sedol, 100 games of Go to 0.

In a major breakthrough for artificial intelligence, AlphaGo Zero took just three days to master the ancient Chinese board game of Go . with no human help

Last modified on Wed 14 Feb 2018 21.10 GMT

Google’s artificial intelligence group, DeepMind, has unveiled the latest incarnation of its Go-playing program, AlphaGo – an AI so powerful that it derived thousands of years of human knowledge of the game before inventing better moves of its own, all in the space of three days.

Named AlphaGo Zero, the AI program has been hailed as a major advance because it mastered the ancient Chinese board game from scratch, and with no human help beyond being told the rules. In games against the 2015 version, which famously beat Lee Sedol, the South Korean grandmaster, in the following year, AlphaGo Zero won 100 to 0.

The feat marks a milestone on the road to general-purpose AIs that can do more than thrash humans at board games. Because AlphaGo Zero learns on its own from a blank slate, its talents can now be turned to a host of real-world problems.

At DeepMind, which is based in London, AlphaGo Zero is working out how proteins fold, a massive scientific challenge that could give drug discovery a sorely needed shot in the arm.

Match 3 of AlphaGo vs Lee Sedol in March 2016. Photograph: Erikbenson

“For us, AlphaGo wasn’t just about winning the game of Go,” said Demis Hassabis, CEO of DeepMind and a researcher on the team. “It was also a big step for us towards building these general-purpose algorithms.” Most AIs are described as “narrow” because they perform only a single task, such as translating languages or recognising faces, but general-purpose AIs could potentially outperform humans at many different tasks. In the next decade, Hassabis believes that AlphaGo’s descendants will work alongside humans as scientific and medical experts.

Previous versions of AlphaGo learned their moves by training on thousands of games played by strong human amateurs and professionals. AlphaGo Zero had no such help. Instead, it learned purely by playing itself millions of times over. It began by placing stones on the Go board at random but swiftly improved as it discovered winning strategies.

David Silver describes how the Go playing AI program, AlphaGo Zero, discovers new knowledge from scratch. Credit: DeepMind

“It’s more powerful than previous approaches because by not using human data, or human expertise in any fashion, we’ve removed the constraints of human knowledge and it is able to create knowledge itself,” said David Silver, AlphaGo’s lead researcher.

The program amasses its skill through a procedure called reinforcement learning. It is the same method by which balance on the one hand, and scuffed knees on the other, help humans master the art of bike riding. When AlphaGo Zero plays a good move, it is more likely to be rewarded with a win. When it makes a bad move, it edges closer to a loss.

Demis Hassabis, CEO of DeepMind: ‘For us, AlphaGo wasn’t just about winning the game of Go.’ Photograph: DeepMind/Nature

At the heart of the program is a group of software “neurons” that are connected together to form an artificial neural network. For each turn of the game, the network looks at the positions of the pieces on the Go board and calculates which moves might be made next and probability of them leading to a win. After each game, it updates its neural network, making it stronger player for the next bout. Though far better than previous versions, AlphaGo Zero is a simpler program and mastered the game faster despite training on less data and running on a smaller computer. Given more time, it could have learned the rules for itself too, Silver said.

What is AI?

Artificial Intelligence has various definitions, but in general it means a program that uses data to build a model of some aspect of the world. This model is then used to make informed decisions and predictions about future events. The technology is used widely, to provide speech and face recognition, language translation, and personal recommendations on music, film and shopping sites. In the future, it could deliver driverless cars, smart personal assistants, and intelligent energy grids. AI has the potential to make organisations more effective and efficient, but the technology raises serious issues of ethics, governance, privacy and law.

Writing in the journal Nature, the researchers describe how AlphaGo Zero started off terribly, progressed to the level of a naive amateur, and ultimately deployed highly strategic moves used by grandmasters, all in a matter of days. It discovered one common play, called a joseki, in the first 10 hours. Other moves, with names such as “small avalanche” and “knight’s move pincer” soon followed. After three days, the program had discovered brand new moves that human experts are now studying. Intriguingly, the program grasped some advanced moves long before it discovered simpler ones, such as a pattern called a ladder that human Go players tend to grasp early on.

This article includes content hosted on gfycat.com . نطلب إذنك قبل تحميل أي شيء ، حيث قد يستخدم المزود ملفات تعريف الارتباط وتقنيات أخرى. لعرض هذا المحتوى ، انقر فوق & # x27 السماح ومتابعة & # x27.

“It discovers some best plays, josekis, and then it goes beyond those plays and finds something even better,” said Hassabis. “You can see it rediscovering thousands of years of human knowledge.”

Eleni Vasilaki, professor of computational neuroscience at Sheffield University, said it was an impressive feat. “This may very well imply that by not involving a human expert in its training, AlphaGo discovers better moves that surpass human intelligence on this specific game,” she said. But she pointed out that, while computers are beating humans at games that involve complex calculations and precision, they are far from even matching humans at other tasks. “AI fails in tasks that are surprisingly easy for humans,” she said. “Just look at the performance of a humanoid robot in everyday tasks such as walking, running and kicking a ball.”

Tom Mitchell, a computer scientist at Carnegie Mellon University in Pittsburgh called AlphaGo Zero an “outstanding engineering accomplishment”. He added: “It closes the book on whether humans are ever going to catch up with computers at Go. I guess the answer is no. But it opens a new book, which is where computers teach humans how to play Go better than they used to.”

David Silver describes how the AI program AlphaGo Zero learns to play Go. Credit: DeepMind


'It's able to create knowledge itself': Google unveils AI that learns on its own

AlphaGo Zero beat its 2015 predecessor, which vanquished grandmaster Lee Sedol, 100 games of Go to 0.

AlphaGo Zero beat its 2015 predecessor, which vanquished grandmaster Lee Sedol, 100 games of Go to 0.

In a major breakthrough for artificial intelligence, AlphaGo Zero took just three days to master the ancient Chinese board game of Go . with no human help

Last modified on Wed 14 Feb 2018 21.10 GMT

Google’s artificial intelligence group, DeepMind, has unveiled the latest incarnation of its Go-playing program, AlphaGo – an AI so powerful that it derived thousands of years of human knowledge of the game before inventing better moves of its own, all in the space of three days.

Named AlphaGo Zero, the AI program has been hailed as a major advance because it mastered the ancient Chinese board game from scratch, and with no human help beyond being told the rules. In games against the 2015 version, which famously beat Lee Sedol, the South Korean grandmaster, in the following year, AlphaGo Zero won 100 to 0.

The feat marks a milestone on the road to general-purpose AIs that can do more than thrash humans at board games. Because AlphaGo Zero learns on its own from a blank slate, its talents can now be turned to a host of real-world problems.

At DeepMind, which is based in London, AlphaGo Zero is working out how proteins fold, a massive scientific challenge that could give drug discovery a sorely needed shot in the arm.

Match 3 of AlphaGo vs Lee Sedol in March 2016. Photograph: Erikbenson

“For us, AlphaGo wasn’t just about winning the game of Go,” said Demis Hassabis, CEO of DeepMind and a researcher on the team. “It was also a big step for us towards building these general-purpose algorithms.” Most AIs are described as “narrow” because they perform only a single task, such as translating languages or recognising faces, but general-purpose AIs could potentially outperform humans at many different tasks. In the next decade, Hassabis believes that AlphaGo’s descendants will work alongside humans as scientific and medical experts.

Previous versions of AlphaGo learned their moves by training on thousands of games played by strong human amateurs and professionals. AlphaGo Zero had no such help. Instead, it learned purely by playing itself millions of times over. It began by placing stones on the Go board at random but swiftly improved as it discovered winning strategies.

David Silver describes how the Go playing AI program, AlphaGo Zero, discovers new knowledge from scratch. Credit: DeepMind

“It’s more powerful than previous approaches because by not using human data, or human expertise in any fashion, we’ve removed the constraints of human knowledge and it is able to create knowledge itself,” said David Silver, AlphaGo’s lead researcher.

The program amasses its skill through a procedure called reinforcement learning. It is the same method by which balance on the one hand, and scuffed knees on the other, help humans master the art of bike riding. When AlphaGo Zero plays a good move, it is more likely to be rewarded with a win. When it makes a bad move, it edges closer to a loss.

Demis Hassabis, CEO of DeepMind: ‘For us, AlphaGo wasn’t just about winning the game of Go.’ Photograph: DeepMind/Nature

At the heart of the program is a group of software “neurons” that are connected together to form an artificial neural network. For each turn of the game, the network looks at the positions of the pieces on the Go board and calculates which moves might be made next and probability of them leading to a win. After each game, it updates its neural network, making it stronger player for the next bout. Though far better than previous versions, AlphaGo Zero is a simpler program and mastered the game faster despite training on less data and running on a smaller computer. Given more time, it could have learned the rules for itself too, Silver said.

What is AI?

Artificial Intelligence has various definitions, but in general it means a program that uses data to build a model of some aspect of the world. This model is then used to make informed decisions and predictions about future events. The technology is used widely, to provide speech and face recognition, language translation, and personal recommendations on music, film and shopping sites. In the future, it could deliver driverless cars, smart personal assistants, and intelligent energy grids. AI has the potential to make organisations more effective and efficient, but the technology raises serious issues of ethics, governance, privacy and law.

Writing in the journal Nature, the researchers describe how AlphaGo Zero started off terribly, progressed to the level of a naive amateur, and ultimately deployed highly strategic moves used by grandmasters, all in a matter of days. It discovered one common play, called a joseki, in the first 10 hours. Other moves, with names such as “small avalanche” and “knight’s move pincer” soon followed. After three days, the program had discovered brand new moves that human experts are now studying. Intriguingly, the program grasped some advanced moves long before it discovered simpler ones, such as a pattern called a ladder that human Go players tend to grasp early on.

This article includes content hosted on gfycat.com . نطلب إذنك قبل تحميل أي شيء ، حيث قد يستخدم المزود ملفات تعريف الارتباط وتقنيات أخرى. لعرض هذا المحتوى ، انقر فوق & # x27 السماح ومتابعة & # x27.

“It discovers some best plays, josekis, and then it goes beyond those plays and finds something even better,” said Hassabis. “You can see it rediscovering thousands of years of human knowledge.”

Eleni Vasilaki, professor of computational neuroscience at Sheffield University, said it was an impressive feat. “This may very well imply that by not involving a human expert in its training, AlphaGo discovers better moves that surpass human intelligence on this specific game,” she said. But she pointed out that, while computers are beating humans at games that involve complex calculations and precision, they are far from even matching humans at other tasks. “AI fails in tasks that are surprisingly easy for humans,” she said. “Just look at the performance of a humanoid robot in everyday tasks such as walking, running and kicking a ball.”

Tom Mitchell, a computer scientist at Carnegie Mellon University in Pittsburgh called AlphaGo Zero an “outstanding engineering accomplishment”. He added: “It closes the book on whether humans are ever going to catch up with computers at Go. I guess the answer is no. But it opens a new book, which is where computers teach humans how to play Go better than they used to.”

David Silver describes how the AI program AlphaGo Zero learns to play Go. Credit: DeepMind


شاهد الفيديو: الذكاء الإصطناعي بشرح بسيط و كيف سيأثر على مستقبل البشرية (شهر اكتوبر 2021).