مارك كوكيلبيرغ: المشاعر الإنسانية لم تعد منطقة مقدسة والذكاء الاصطناعي ليس محايدًا من حيث السياسة والسلطة
يستخدم هذا الكتاب "مدخل إلى الفلسفة السياسية للذكاء الاصطناعي" للبروفيسـور "مارك كوكيلبيرغ" أسـتاذ فلسـفة الإعلام والتكنولوجيا في قسم الفلسفة السياسية بجامعة فيينا، جنبًا إلى جنب مع فلسفة التكنولوجيا والأخلاق؛ بهدف فهم القضايا المعيارية التي يثيرها الذكاء الاصطناعي والروبوتات بشكل أفضل، وتسليط الضوء على القضايا السياسية الملحة، والطريقة التي تتشابك بها مع هذه التقنيات الجديدة.
مصطلح "متشابك" يستخدمه كوكيلبيرغ هنا، للتعبير عن الارتباط الوثيق بين القضايا السياسية والقضايا المتعلقة بالذكاء الاصطناعي. ومؤدى هذه الفكرة أن الذكاء الاصطناعي سار سياسيًّا بشكل فعلي. ووفقًا له، فإن المفهوم الموجه لكتابه "يتجلى في كون الذكاء الاصطناعي ليس مجرد مسألة تقنية أو يتعلق بالذكاء فقط، فهو ليس محايدًا من حيث السياسة والسلطة؛ ذلك بأن الذكاء الاصطناعي سياسي بكل معنى الكلمة". وفي كل فصل على حدة، يعرض هذا البعد السياسي للذكاء الاصطناعي. حيث يناقش كل فصل من الكتاب مجموعة معينة من المواضيع السياسية الفلسفية: الحرية، والتلاعب، والاستغلال، والعبودية، والمساواة والعدالة، والعنصرية والتمييز الجنسي، وغيرها من أشكال التحيز والتمييز، والديمقراطية، والخبرة، والمشاركة، والشمولية، والحيوانات، والبيئة، والسلطة، والانضباط، والمراقبة، والدستور الذاتي، وتغير المناخ في علاقته بما بعد النزعة الإنسانية والنزعة الإنسانية المتحولة. وتتم مناقشة كل موضوع في ضوء التأثيرات المقصودة وغير المقصودة للذكاء الاصطناعي، وعلوم البيانات، والتقنيات ذات الصلة مثل: الروبوتات.
يقول كوكيلبيرغ في كتابه الذي ترجمه عبد النور خراقي وعبد الرحيم فاطمي، وصدر عن دار خطوط وظلال، أن ترسيخ حوار بين فلسفة التكنولوجيا والفلسفة السياسية، أضحى ضرورة ملحة، لا يمكن تجاوزها. وإن النهل من موارد الفلسفة السياسية والنظرية الاجتماعية، يمكننا، لا محالة، من مواصلة تطوير فكرة أن التكنولوجيا، وفي مقدمتها الذكاء الاصطناعي، سياسية في عمقها. وإذا كانت السياسة وفلسفتها شأنًا عامًّا، تتضافر جهود أفراد المجتمع للتفكير فيها سويًّا، فلا بد أيضًا من "التفكير معًا" في سياسات الذكاء الاصطناعي، حتى لا تظل حبيسة الكتب وحكرًا على الأوساط الأكاديمية. وإذا عجزت السلطة الفلسفية في توجيه سلطة الذكاء الاصطناعي، فسنتحول إلى ضحايا مكبلين بأغلال خوارزمياته، تخرب بنيات السلطة البشرية، وتتجاوز مركزية الإنسان، وتكرس الظلم والتفاوت، والتمييز، وسلب الحريتين الإيجابية والسلبية. إننا أمام مفترق الطرق: إما أن نتصالح مع الفكر التكنولوجي وفلسفته، ونوجهه أخلاقيًّا، فنسود، وإما أن نترك الحبل على الغارب، فتحل محلنا قوى غير بشرية اصطناعية فائقة الذكاء، تطالب "بحق المواطنة" كما يزعم أنصار النزعة الإنسانية المتحولة.
يشير إلى أن الذكاء الاصطناعي، غالبًا ما ينظر إليه بأنه يقف بقوة إلى جانب التكنوقراط، بحيث يقدم إمكانيات جديدة لتوليد المعرفة حول الواقع الاجتماعي، ويمكن للمرء القول أيضًا بناء الواقع الاجتماعي. لقد سبق أن تم استخدام علم الإحصاء منذ فترة طويلة، في الحكم الحديث، غير أنه مع بروز التعلم الآلي، توسعت إمكانيات التحليل التنبؤي، إذ إن "كولدري" و"ميخياس" (2019) يتحدثان عن نظرية معرفية اجتماعية جديدة، يتم تسخيرها بواسطة الذكاء الاصطناعي.. إن الذكاء الاصطناعي، يخلق قوة جديدة للتوجيه التكنوقراطي للمجتمع، وهو ما يتناقض مع المثل الديمقراطية. ويبدو أن الذكاء الاصطناعي هو مجال للخبراء، يتجاوز فهم معظم الناس. وفي هذا الصدد، صرح "باسكوالي" أنه من أجل التوزيع العادل للخبرة والسلطة، ينبغي تقديم حوافز للأفراد لفهم الذكاء الاصطناعي، وموارده، وإذا لم يحدث هذا، فقد نصبح معولين بشكل كامل على الذكاء الاصطناعي والبيروقراطيين، الذين يستخدمونه للسيطرة علينا، لدرجة أن أنصار ما بعد النزعة الإنسانية مثل "هراري" يرون أن الذكاء الاصطناعي سيحكمنا في المستقبل، ولكن إذا تركنا الخيال العلمي جانبًا، فقد يكون بوسعنا أن نقول، إننا محكومون بالفعل من قبل شركات كبرى، تستخدم الذكاء الاصطناعي للتلاعب بنا، خارج نطاق السيطرة الديمقراطية تمامًا. إن التساؤل حول من يجب أن يحكم، هو سؤال نظري فقط؛ لأننا محكومون بالفعل من قبل "غوغل"، و"أمازون"، وغيرهما من الشركات الكبرى. ومن هذا المنطلق، ثمة شيء مناهض للديمقراطية في الذكاء الاصطناعي أساسًا، فضلًا عن ذلك، هل طبيعة المعرفة، التي يقدمها الذكاء الاصطناعي كافية لاتخاذ القرار؟ يمكن القول إنه ثمة فجوة، تتطلب الحكم البشري والتداول الديمقراطي. إن طبيعة الذكاء، الذي يعرضها الذكاء الاصطناعي، غالبًا ما تتناقض مع الذكاء الاجتماعي البشري، الذي يبدو ضروريًّا للخطاب السياسي، وصياغة المعنى الاجتماعي في الديمقراطيات، ولكن هل يمكن للذكاء الاصطناعي أيضًا، أن يدعم أشكالًا أكثر ديمقراطية للحكومة والحكم؟ وإذا كان الأمر كذلك، فكيف السبيل إلى ذلك؟ إننا نحتاج - قصد إغناء هذه النقاش - إلى مزيد من التحقيق في السؤال المركزي حول ماهية الديمقراطية، وما تقتضيه من معرفة.
ويؤكد كوكيلبيرغ أن ريادة الذكاء الاصطناعي للجنس البشري، هو في كل الأحوال أمر خطير، ومخالف للديمقراطية، وخطره هذا لا يكمن في أن الذكاء الاصطناعي الذي سيتولى المسؤولية، قد يدمر البشرية فحسب، بل يكمن أيضًا في أنه سيحكم، أو يدعي أنه سيحكم، بما يحقق المصالح الفضلى للبشرية. إن هذا الأمر هو مجاز خيال علمي كلاسيكي (انظر مثلًا فيلم "أنا روبوت" أو سلسلة روايات "نيل آشر"). هذا، وهو يمثل خطرًا وفقًا لجميع مُثُل الديمقراطية، فهو يدمر الديمقراطية الليبرالية؛ لأنه يدمر الحرية باعتبارها استقلالية للمواطنين، وفي نهاية المطاف، فهو يحرمنا أيضًا من السياسة في حد ذاتها، كما قال "دامنيانوفيتش". وهذا السيناريو، لا يمكن دعمه إلا من خلال تفسير خاص جدًّا لأفلاطون، حيث يتصرف الذكاء الاصطناعي مثل ملك فيلسوف اصطناعي (ربما مقترنة بحجة نفعية حديثة، تهدف إلى تعظيم المنفعة للإنسانية ككل، أو بحجة من فلسفة "هوبز"، هدفها بقاء البشرية والحفاظ على سلمها) يصبح القبطان أو قائد (حاكم) سفينة الدولة مثل الطيار الآلي، وربما يمكنه أيضًا التنقل بين البشرية جمعاء وكوكب الأرض. إن مثل هذه الرؤى، تتعرض للانتقاد على نحو ملائم من قبل جميع النظريات الديمقراطية، وليس من الواضح أيضًا ما إذا كان مثل هذا الذكاء الاصطناعي، سيحظى بسلطة فعلية، بغض النظر عما إذا كان من الصواب والعدل، أن يكون له مثل هذه السلطة.
ويلفت أن الذكاء الاصطناعي لا يقوم بمراقبتنا فحسب، بل يقوم أيضًا بتنبؤات حول سلوكنا، ومن ثم، قد يصبح الذكاء الاصطناعي، وعلوم البيانات أدوات لأشكال جديدة من الشمولية، حيث يعرفنا الذكاء الاصطناعي بشكل أفضل مما نعرفه، وقبل أن نعرفه نحن، وكما قال "هراري" في مقابلة مع مجلة "وايرد"، لم تعد المشاعر الإنسانية، والخيارات الإنسانية منطقة مقدسة، إذ أصبح الآن من الممكن التلاعب بالبشر بالكامل: "لقد أصبحنا الآن حيوانات قابلة للاختراق"، وهذا يفتح احتمالات لشمولية الحكومات والشركات؛ بحيث يمكن استخدام المعلومات المكتسبة عن طريق الذكاء الاصطناعي، والتقنيات المرتبطة به للتلاعب بنا، والسيطرة علينا. ومن ثم، فإن التكنولوجيا تجازف بأن تصبح ـ إذا استخدمنا عبارة "أرندت" - أحد أصول الشمولية. إن التحول من الديمقراطية إلى الشمولية، لا يحدث (فقط) لأن الفوهرر أو الرئيس يتولى السلطة، ويدمر الديمقراطية علانية، مثلًا عن طريق ثورة أو انقلاب، بل إن العملية أقل وضوحًا، وأبطأ بكثير من ذلك، ولو أنها لا تقل فعالية، وباستخدام الذكاءالاصطناعي، وغيره من التكنولوجيات الإلكترونية، ينتقل ميزان القوى ببطء إلى أيدي عدد قليل من الجهات الفاعلة القوية ــ سواء في الحكومة أو في الشركات ــ وبالتأكيد بعيدًا عن الناس، هذا إن كانوا يملكون قدرا من السلطة أصلًا. وعلى هذا المنوال، يعد الذكاء الاصطناعي أكثر من مجرد أداة، إنما يقوم بتغيير قواعد اللعبة، وعندما يتم تطبيقه في المجال السياسي، فإنه يغير هذا المجال أيضًا، مثلًا: عندما يساهم في خلق دينامية شمولية.
ويرى كوكيلبيرغ أن عواطفنا هي الأخرى تتم مراقبتها، ويتم تحقيق الدخل منها، ويمكن استخدام تكنولوجيا الذكاء الاصطناعي نفسها لدعم الأنظمة الشمولية، أو للحفاظ على الأنظمة السياسية القمعية وأسطورتها، وصورها، على سبيل المثال: المدينة الفاضلة العنصرية. على الرغم من أنه، يمكن للذكاء الاصطناعي، من حيث المبدأ، أن يوفر أيضًا فرصًا لدعم الديمقراطية. إن الكثير، يعتمد على كيفية رؤيتنا للديمقراطية، وبالطبع رؤيتنا للسياسة. إن معظم الباحثين في مجال الذكاء الاصطناعي وسياساته، يدعمون طريقة ديمقراطية وعادلة للبرمجة، ويظن بعضهم أننا بحاجة إلى مزيد من القيود والمسائل التنظيمية. إن التأثيرات القمعية ليست دائمًا وليست مقصودة عادة، على الرغم من أنه أحيانًا يتم استخدام الذكاء الاصطناعي عن قصد، للترويج لسياسة عنصرية وقومية. ومع ذلك، ثمة أيضًا تأثيرات إشكالية غير مقصودة. فقد يدعم الذكاء الاصطناعي الثقافات والأنظمة السياسية العنصرية والاستعمارية الجديدة، من خلال خلق التحيز ضد أفراد وجماعات معينة، أو يساعد في تهيئة الظروف للاستبداد أو الشمولية. وخذ بعين الاعتبار مرة أخرى، حجة "نوبل" التي تفيد بأن خوارزميات "البحث"، وأنظمة التصنيف، قد "تعزز العلاقات الاجتماعية القمعية". وللذكاء الاصطناعي إمكانية التحكم في القرارات، والأفكار، والأفعال، والعواطف عن قصد، من أجل دعم نظام سياسي معين. وفي حالة الشمولية، قد يدعم الذكاء الاصطناعي وصول النظام المطلق إلى عقول الناس، وقلوبهم.
ويوضح أن فوكو جادل بأن السلطة تأتي في شكل الانضباط والمراقبة، ففي كتابه المراقبة والمعاقبة، يوضح أنه في ظل السلطة التأديبية الحديثة، يتم استخدام الأفراد باعتبارهم أشياء وأدوات، إذ يصبح الجسد سهل الانقياد، ومطيعًا، ومفيدًا. واستنادًا إلى هذا الإطار، يمكن للمرء أن يجادل بأنه يتم إنشاء هيئات مطيعة، من خلال وسائل التواصل الاجتماعي المدعومة بالذكاء الاصطناعي، وتقنيات المراقبة، وما إلى ذلك. إن اقتصاد الاهتمام في وسائل التواصل الاجتماعي، يجعلنا نتصفح وننقر مثل الآلات، ويتم وضع الأشخاص تحت المراقبة في المطارات، وبيئات مراقبة الحدود الأخرى. ويساهم الذكاء الاصطناعي أيضًا في إنشاء نوع جديد من "البانو بتيكون"، الذي صممه الفيلسوف الإنجليزي "جيريمي بينثام" في القرن الثامن عشر، في البداية نوعًا من هندسة السجون، على شكل برج مراقبة مركزي، يقع داخل دائرة من زنازين السجن، ويستطيع الحراس من البرج، رؤية كل سجين، غير أن السجناء لا يستطيعون الرؤية من داخل البرج، مما يعني أنهم لا يعرفون أبدًا ما إذا كانوا مراقبين أم لا. وبوصفه مفهومًا تأديبيًّا، ينطبق "البانوبتيكون" على فكرة أن الناس يتصرفون كما لو كانوا مراقبين، دون معرفة ما إذا كان هذا هو الحال أم لا. وهذا شكل أكثر دقة من أشكال السيطرة: فهو نوع من التنظيم الذاتي. و"التكنولوجيا السياسية" وبالنسبة لـ "فوكو" شكل "البانوبتيكون" أو المراقبة الجماعية طريقة جديدة لممارسة السلطة. لقد كانت "اختراعا تكنولوجيًّا في نظام السلطة"، كما أشار إلى تصميم سجن "بنثام". ولكن اليوم، يمكن فهم الذكاء الاصطناعي بوصفه يساهم في جميع أنواع المراقبة الجماعية الأقل وضوحًا. على سبيل المثال: في سياق وسائل التواصل الاجتماعي.
ويضيف كوكيلبيرغ أنه باسم الأمن أو إجراءات مكافحة الإرهاب، قد يكون الذكاء الاصطناعي جزءًا من أشكال "الحكومة الخوارزمية"، التي تستخدم لممارسة سلطة الدولة بطريقة تفوض القرارات، حول من هو ضمن المجتمع السياسي، ومن هو خارجه. فحتى الديمقراطيات الليبرالية في الاتحاد الأوروبي، تستخدم الذكاء الاصطناعي على نحو متزايد لمراقبة الحدود، ففي القرن الحادي والعشرين، عادت أشكال الحكم، التي اعتقد قراء "فوكو" أنها تنتمي إلى الماضي، والآن تم ترسيخها بواسطة الذكاء الاصطناعي وعلوم البيانات.
------------------------
تقرير - محمد الحمامصي
من المشهد الأسبوعية
الذكاء الاصطناعي يتيج إمكانية التلاعب بالبشر - المشهد الأسبوعية