
ما هي الوظيفة الغريبة في عالم التكنولوجيا؟ 4 قد تظهر المهمة من عالم الخيال … كنت أعتقد الوظيفة الغريبة في عالم التكنولوجيا هل هذا يعني إصلاح أجهزة الكمبيوتر أو تصميم التطبيق؟ فكر مرة أخرى. هناك أشخاص يأخذون رواتب كبيرة مجرد اختبار نومك أو التحدث الذكاء الاصطناعي طوال اليوم ، حتى مشاهدة مشاعر الروبوتات ، وما ستقرأه هنا ، يمكنك إعادة التفكير في حياتك المهنية ، أو على الأقل تتساءل عما إذا كان المهندس في مجال الأمن السيبراني ، المهندس هوسام آل -سافاريني وحوارنا.

روبوتات مدرب العواطف
المحتويات
في عالم الذكاء الاصطناعي ، لا يكفي أن تفهم الروبوتات الكلمات ، يجب أن تشعر أكثر. إليكم دور مدرب الممارس ، الذي يُطلب منه تمثيل المشاعر الإنسانية أمام كاميرات الروبوت ؛ لتعليمه غضب حقيقي وابتسامة دافئة ودافئة والتمييز بين الاجتماعية الباردة. ولأن الذكاء الاصطناعي تعلم بالملاحظة ؛ هذه المهمة ، كما تفعل الممثلون المحترفون في السينما ، تتطلب عرضًا عالي الدقة أمام الجهاز.
هل تعتقد أن مشاعرك يمكن أن تتحول إلى مادة تعليمية للآلات؟
- لأن الذكاء الاصطناعي سيتم استخدامه في الطب والتعليم والرعاية ؛ ما يجب أن يتعاطف معه.
- لأن خطأ قراءة المشاعر الإنسانية يمكن أن يؤدي إلى السلوك الضار أو غير المناسب للروبوت.
- سوف يشارك الروبوت العاطفي يومك ، لذلك يحتاج الحزن إلى التمييز بين الدموع وزيت الفرح.
أحلام المراقب الواقع الافتراضي
بعد غطسها في عوالم افتراضية ، فإن ما هو في الدماغ البشري لساعات ليس تفاصيل صغيرة ، ولكنه تجربة كاملة تشبه الحلم. لا يقتصر The Dream Observer على لعب الوظيفة ، بل كيف تؤثر هذه العوالم على العقل الباطن والتمييز بين التجربة الحسية والواقع الحقيقي. قد يكون هذا الموظف مهتمًا بالأجهزة التي تقيس نشاط الأعصاب ، وتقارير عن الكوابيس ، وحتى حالات ترك الواقع بعد جلسات طويلة.
هل تعتقد أن لعبتك يمكن أن تتحول إلى وظيفة؟
- لأن الشركات بحاجة إلى قياس التأثير النفسي لعوالمها الرقمية قبل بدء الجمهور.
- لأن الشخص يمكنه حمل صور للعالم الافتراضي إلى واقعه دون تمييز تمامًا.
- لأن الاعتماد الرقمي يبدأ من لحظة التعرف على الشخصية الافتراضية ويكذب في خطر.
السلوك الأخلاقي للذكاء الاصطناعي
إذا علمت كيف تقرر الروبوت وحده ؛ سوف تفاجأ بما فعله. تتمثل وظيفة هذه البرمجة الخطرة في إقامة المبادئ الأخلاقية لأنظمة الذكاء الاصطناعي ، ومنع قرارات التحيز أو المجردة أو اللاإنسانية. ليس فقط التقنية ، ولكن يتطلب أيضًا فهمًا عميقًا للفلسفة والقيم الإنسانية وحتى علم النفس. الأسئلة التي تنشأ في هذه الدراسة تشبه تلك التي تمت مناقشتها في أفلام الخيال العلمي: من يستحق الحياة؟ ما هو العدالة؟ هل يمكن أن يكون الروبوت خطأ من الناحية الأخلاقية؟
كيف يمكن للجهاز تعلم الأخلاق؟
- لأن الجهاز يتعلم من الناس والأشخاص ، وتحامل البيانات ، والخطأ والتقلب.
- لأنه يمكن اتهام الروبوت باتخاذ القرارات في المواقف الحرجة: السيارة ذاتية القيادة أو التشخيص الطبي أو حتى إنقاذ الأرواح.
- لأن الخطأ الأخلاقي للروبوت لا يمكن أن يتحمل مسؤولية ، ولكنه مسؤول عن برامجه.
مصمم الشخصيات الرقمية لصديق بشري
أثناء انخفاض العلاقات الإنسانية ، كان ينظر إلى القطاع الشخصي الرقمي على أنه أصدقاء أو شركاء افتراضيين. هذا المصمم لا يكتب السيناريوهات فحسب ، بل يخلق أيضًا شخصية كاملة: الاسم ، الماضي ، شكل التحدث ، الفكاهة وحتى الذوق الموسيقي! الهدف من ذلك هو جعل المستخدم يشعر أن هذا الكائن الافتراضي حقيقي ومريح من الناحية النفسية مع الناس.
في يوم من الأيام ، هل نصل إلى مرحلة عندما يكون أفضل أصدقائنا برنامج كمبيوتر؟
- لأن بعض الناس يفضلون التحدث إلى شخصية افتراضية لا تحكم أو تؤذيهم.
- لأن هذه الشخصيات مصممة للتعرف عليك أكثر من أصدقائك ولأخذ في الاعتبار بشكل صحيح تقلباتك النفسية.
- لأن الذكاء الاصطناعي سيكون صديقًا دائمًا في جيبك ؛ هل تبقيه هناك إلى الأبد؟
.
شارك هذا الموضوع:
متصل