محاولة الاجابة على أسئلة فهد العييري في الذكاء الصناعي (الجزء 3)

نتابع الإجابة على أسئلة فهد العييري في مقاله فلسفة الذكاء الإصطناعي:

ماذا عن الإدراك والوعي؟ الوعي هو صفة إنسانية حيث يدرك الإنسان محيطه الخارجي من خلال تحليل ما تلتقطه حواسه الخمس في العقل فيضيف لها الذكريات والخبرة والمعرفة فينتج لنا رأي أو فكرة أو وجهة نظر أو قرار. هل الآلة قادرة على دمج هذه المكونات والخروج بقرار أو رأي أو وجهة نظر ممكن قبولها أو رفضها؟

في السؤال أعتقد أن السائل جعل الإدراك  مرادفا للوعي وعرّف الوعي بما ترونه أعلاه في السؤال، حسب التعريف الخاص به الجواب هو نعم، غير أني لا أرى الادراك والوعي مترادفان كما لا أوافق على تعريفه للوعي.

الادراك في نظري (هو الوصول إلى فهم شيء ما محدد، وهو متعلق باستكشاف طبقات فهم شيء ما والوصول الى اعمقها). حسب المخطط التالي:

مخطط

المشكلة في القضية أنني لا أعتقد أن هناك وصولا نهائيا لمستوى فهم شيء ما (سين) لأن عدد مستويات الفهم لانهائي لكن الرياضيات حلت مقاربات اللانهاية بشكل جيد لذلك يمكن الوصول إلى مقاربات (واحصائيات احتمالية) ومجمل ما يؤول إليه فهم شيء ما لكن لا يمكن إدراكه كما هو مطلقا والإحاطة التامة به.

بالتالي حسب تعريف السؤال للادراك والوعي الاجابة : نعم.

حسب تعريفي للوعي: “الوعي هو قابلية الذهن (او الجهاز المخصص للتفكير) على التفكير خارج حدود معالجة البيانات”

وحسب تعريفي للإدراك (هو الوصول إلى فهم شيء ما محدد، وهو متعلق باستكشاف طبقات فهم شيء ما والوصول الى اعمقها) –المخطط أعلاه يوضحها بشكل أفضل.

الإجابة هي :لا

السؤال التالي هو:

ماذا عن القرارات الأخلاقية التي يتخذها الإنسان، هل الآلة قادرة على اتخاذها؟ قرارات يدخل فيها الحب والتضحية والمسؤولية والميول والانتماء والسعادة والنفع وغيرها.

يمكن للآلة محاكاة اتخاذ القرارات الاخلاقية حسب الانسان الذي تحاكيه، اما اتخاذها رأساً من عند ذاتها، فهذا يتطلب الاجابة عن سؤال هل الأخلاق عبارة عن انعكاسات وردات فعل لمعالجة بيانات خارجية؟ ام تنبع ذاتا من داخل عقل الانسان ووعيه؟ حسب اختيارك تكون الاجابة. والنوع الاول من الاخلاق يدعى الاخلاق النسبية عادة وهو ما تذهب اليه وتفضله المذاهب الفلسفية الفكرية الحالية -في مجملها- اما ان كان مصدرها عقل ووعي الانسان او وحي فوقيّ متعالي يعني لا يتعلق بالمعطيات الخارجية ومعالجتها والتعامل وفق لها فهذا ما عليه معظم البشر حاليا وفي اعتقادي ان الذكاء الاصطناعي القوي الذي سيكون بقدرة تفكير الانسان فيما يبدو سيكون عموما محاكاة لنسخ انسانية سابقة تحذو حذوها ولن يكون من الاول تفكيرا ذاتيا خارج حدود مملكة الاخلاق الانسانية تماما.

قرأتُ مثل الكثير غيري قوانين اسحاق عظيموف

القانون الأول: لا يجوز للروبوت إيذاء البشر أو أن يسمح بذلك.

القانون الثاني: يجب على الروبوت طاعة أوامر البشر باستثناء ما يتعارض مع القانون الأول.

القانون الثالث: على الروبوت أن يحافظ على استمراريته في العمل وسلامته من العطل إلا إذا تعارض هذا مع القانون الأول والثاني. من مقال فهد عامر الأحمري.

وفي الحقيقة هناك قانون يسمى القانون صفر غير معروف كثيرا هو:

فيما بعد أضاف أزيموف قانونا رابعا أكثر جذرية يعتبر بمثابة “القانون صفر”، الذي يضع سلامة البشرية بأكملها فوق سلامة فرد معين. و لا تزال هذه القوانين تغذي خيال الباحثين اليوم، و ترسخ فكرة إمكانية تعايش ذكي بين الإنسان و الروبوت. مصدر.

لكني أرى أن هذه القوانين الثلاثة (مع القانون صفر تصبح أربعة) كثيرة ويمكن أن تتعارض برمجيا في كثير من الحالات كما أن (نصل أوكام) يحتم علينا في حال وجدنا قانونا واحدا جامعا ان نتخذه بدلها.

ولدي هنا مساهمة اراها تفي بالغرض وهي قانون وحيد لا يكتفي فقط بقاعدة واحدة وحيدة بل يشمل أيضا العلاقة الحيوية باكملها (الروبوتات -البشر-النباتات- الكائنات الحية )

اذ انني ارى ان قوانين ازيموف انسانية بشرية التمركز ولا تضع الروبوتات كثيرا بعين الاعتبار بحجة ماذا؟ بحجة الانسان؟ باي دليل او تأكيد؟ لا شيء. فقط ربما لان البشر صنعوا الروبوتات او انهم لا زالوا يظنون انهم اذكى من في الكون او ان العناية الالهية تفضلهم هم فقط.

ما هو هذا القانون الجامع؟

قانون “قابلية التعويض”

ولنشرح هذا القانون بشكل افضل سنستعرض هنا تجربة فكرية مفادها أنه في حالة مثلا وقع روبوت في حالة تستدعي موتا او حياة لاحد الكائنات الحية (بما فيها البشر) فانه يشغل خورازمية قابلية التعويض، ولأن كل الروبوتات قابلة للتعويض واعادة الوجود من جديد، فانه مثلا لو كان هناك روبوت وانسان في قمر بعيد وتعطلت بطاريات دعم الحياة في المركبة او في المحطة وكانت بطارية الروبوت فقط هي ما يكفي لينجو الانسان فانه يشغل المركبة بها طبقا لقانون قابلية التعويض.

الأمر ليس بذلك البساطة كما يبدو لان كلمة كائن حي ستدخل الحيوانات والنباتات في الموضوع فكيف سيتعامل معها الروبوت على فرض وعيه؟

هنا يمكن الاعتماد على السلم التطوري بتصنيف لينوس للكائنات الحية حيث يأخذ كل حيوان قيمة معينة ما في سلم التطور ويتم الموازنة بين القيمتين لتفضيل أيهما تنجو في الحالات الحرجة ومن يتم التضحية بها، فمثلا لما يشاهد روبوت بهذه المواصفات أسدا ياكل غزالا لن يتحرك لأنه (فعل طبيعي) ولان الاسد والغزال في تلك العلاقة لهما ارقام متماثلة في القيمة لكن لما يشاهد في البرية اسدا ياكل غزالا نادرا جدا كحيوان فانه يمنعه مع توفير له ما يكفي من الأكل. لان الغزال النادر له قيمة اعلى من الاسد العادي.

لكن ماذا عن المفاضلة بين البشر؟ يعني في حالة القصة المشهورة لديك امرأة حامل طفل وعجوز عالم كبير يغرقون مع فرصة نجاة واحدة فقط. اي واحد فيهم سينقذه الروبوت؟

وفق قانون قابلية التعويض فالاجابة هي: المراة الحامل -ان كانت قدرة الروبوت خارقة كما اتصورها بحيث يتاكد من سلامة الحمل حتى  باحتمالية مرتفعة دون يقين مطلق مثلا- لها وزن تقييم أكبر من الطفل والعالم.

لذلك في نظر مبدأ قابلية التعويض: حياتان دوما افضل من واحدة. لان الحياة بذاتها قيمة بديهية في قانون قابلية التعويض ببساطة لانها لا تعوض، من هناك فالجواب هو المرأة الحامل.

سيتكلم الاخلاقيون ويقولون ماذا عن حالة امراة مش حامل -طفل -عجوز عالم كبير؟.

هناك يفاضل الروبوت حسب مبدأ قابلية التعويض، المبدأ الذي يقوم أصلا بالتعويض لدى البشر هو المرأة فان كانت له بيانات وتحقق بسرعة من امكانية حملها (او بتقديره بمسشتعراته الكثيرة بشكل سريع) فهي التي يجب انقاذها ايضا اما العجوز العالم الكبير فمن المعروف في مجالات الفيزياء ان الفيزيائي ان تجاوز سنا معينا فمن المحتمل جدا الا يخرج باي نظرية مفيدة للبشرية لذلك يحسب عمره ويقارن ان كان تحت العمر المنتج للنظريات ينقذ قبل الطفل اما ان كان بعدها فالأولوية للطفل.

لماذا ننقذه ان كان قبل سن انتاج النظريات؟ لان الطفل غير مضمون تماما ان يخرج عالما بذلك المستوى، هنا يبزغ سؤال ولماذا لم تقل ذلك عن طفل المرأة الحامل الجواب هو ان المرأة بحد ذاتها لها قابلية التعويض عن الطفل فلديها ثلاثة مزايا قابلية التعويض وحياتها وحياة الطفل فمستواها التقييمي للانقاذ اعلى.

طبعا لا بد من تطوير خورازميات ذكية وكاملة بناء على مبدأ عدم التعويض والذي كما اراه وكما شرحت بعض اجزائه وجوانبه هنا حسب تجارب فكرية لا يجعلنا نكتب الكثير من القواعد كما انه ووفق نصل اوكام افضل من قوانين ازيموف الثلاثة انفة الذكر. وهو مجرد نموذج فقط عن مبادئ شاملة كلية يمكن انطلاقا منها فقط مع بعض البديهيات العامة المتفق عليها انشاء خوارزميات متكاملة جيدة في الحكم الأخلاقي للروبوتات.

أراكم في المقال المقبل بإذن الله.

 

3 رأي حول “محاولة الاجابة على أسئلة فهد العييري في الذكاء الصناعي (الجزء 3)

شاركني أفكارك!

إملأ الحقول أدناه بالمعلومات المناسبة أو إضغط على إحدى الأيقونات لتسجيل الدخول:

شعار ووردبريس.كوم

أنت تعلق بإستخدام حساب WordPress.com. تسجيل خروج   /  تغيير )

Facebook photo

أنت تعلق بإستخدام حساب Facebook. تسجيل خروج   /  تغيير )

Connecting to %s