أسعار العملات
أسعار الدولار بالبنوك
سعر الشراء سعر البيع البنك
17.87 17.97 البنك المركزى المصرى
17.86 17.96 بنك الإسكندرية
17.89 17.79 بنك مصر
17.88 17.78 البنك الأهلي المصري
17.96 17.86 بنك القاهرة
17.96 17.86 البنك التجاري الدولي CIB
17.95 17.85 البنك العربي الأفريقي
أسعار الذهب
متوسط أسعار الذهب بالعملة المصرية
السعر بالجنيه المصري الوحدة
600.00 عيار 21
514.00 عيار 18
686.00 عيار 24
4800.00 الجنيه الذهب
اسعار السلع
اسعار السلع الاساسية بالجنيه المصرى
السعر بالجنيه المصري السلعة
9.00 الارز
16.00 الزيت
10.00 السكر
8.00 المكرونة
7.00 الدقيق
3.50 الشاي 40 جم
80.00 المسلى الطبيعي
40.00 المسلى الصناعي
35.00 الفراخ البلدي
28.00 الفراخ البيضاء
45.00 ديك رومي
45.00 بط
30.00 سمك بلطي
50.00 سمك بوري
60.00 سمك مكرونة
150.00 جمبري
80.00 كابوريا
140.00 لحم بتلو
120.00 لحم كندوز
130.00 لحم ضاني

اتصالات وتكنولوجيا

مقطع فيديو لأوباما يثير الرعب في أوساط الشخصيات العامة

الرئيس الأمريكي السابق باراك أوباما
الرئيس الأمريكي السابق باراك أوباما
الرئيس الأمريكي السابق باراك أوباما

سمية كمال وعبدالغفور أحمد 

أثار مقطع فيديو مزيف للرئيس الأمريكي السابق باراك أوباما، الرعب في نفوس الشخصيات العامة، خاصة السياسيين، بعد أن أظهر المقطع المزيف إلى أي مدى أصبح إعداد مثل هذه المحتويات دقيقا للغاية بشكل يجعله قابل للتصديق والانتشار على نطاق واسع.

الفيديو الذي شوهد 4.8 مليون مرة منذ أبريل الماضي، وتبلغ مدته دقيقة واحدة، يظهر فيه أوباما جالسا وخلفه العلم الأمريكي، يتحدث بشكل مباشر إلى المشاهدين ويستخدم ألفاظا نابية بحق الرئيس الأمريكي الحالي دونالد ترامب.



 الحقيقة، أن الفيديو الذي تم تزييفه بدقة كبيرة عبر استخدام تقنيات الذكاء الاصطناعي، صنعه الممثل والمخرج جوردان بيل، والذي قام بتقليد صوت أوباما، لتوضيح مخاطر الفيديوهات ومقطاع الصوت المزيفة التي تصور أشخاصًا يقولون أو يفعلون أشياء لم يقولوها أو يفعلوها.


وبحسب بلومبرج، وصف الباحثون في جامعة نيويورك التزييف باستخدام الذكاء الاصطناعي أو ما يطلق عليه "التزيف العميق deep fake " العميق بأنه "خطر يلوح في الأفق".


وتابعت :"في حين أن التلاعب في الملفات الرقمية ليس بالأمر الجديد إلا أن (التزييف العميق) قابل للتصديق بدرجة أكبر ويتم إنجازه باستخدام خوارزمية من خوارزميات الذكاء الاصطناعي يتم تدريبها على محاكاة أنماط حديث وتحركات شخص معين بالاستعانة بعدد كبير من تسجيلاته الصوتية أو البصرية، ثم لاحقا وعبر عملية التعلم المتعمق deep learning تتمكن تلك الخوازمية من تغيير أجزاء من الصوت أو الصورة للمحتوى الأصلي ودمجها بسلاسة بحيث تبدو وكأنها هي الفيديو الأصلي".


وأضافت أن التلاعبات تصبح أكثر تضليلاً عند دمجها مع تقنية استنساخ الصوت التي تقسم التسجيل الصوتي إلى أجزاء يمكن إعادة تجميعها في كلمات جديدة.


وبحسب الموقع، كلما كبرت كمية المحتويات التي تتغذى عليها خوارزمية التعلم العميق، كلما كان المحتوى المزيف أكثر واقعية. 


وأشارت بلومبرج إلى أن فيديو أوباما المزيف استخدم 56 ساعة من تسجيلاته السابقة، ويفسر هذا كون بعض الفيديوهات المزيفة أكثر قابيلة للتصديق مقارنة بفيديوهات أخرى اعتمدت على عدد أقل من التسجيلات.


وبحسب موقع "ماذربورد فويس"، أصبحت خوارزميات إنشاء مقاطع الفيديو المزيفة متاحة حاليا لأي شخص بعد أن كانت مقصورة في السابق على الأكاديميين والباحثين.


وتقول بلومبرج إن الخوف من التزييفات العميقة اتسع بشكل كبير كونه أصبح خطرا لدرجة تدمر السمعة بل وتثير الاضطرابات، "تخيل مقاطع فيديو مزورة تصور مرشحًا رئاسيًا يتحرش بالأطفال، أو رئيس شرطة يحرض على العنف ضد مجموعة من الأقليات، أو جنود يرتكبون جرائم حرب". 


ولفتت إلى أن الشخصيات العامة مثل السياسيين ورجال الأعمال معرضين للخطر على وجه الخصوص، بالنظر إلى عدد التسجيلات الخاصة بهم في المجال العام. 


أحمد بهاء، نائب رئيس شركة ASC قال للمال، إن ثمة طريقة للشخصيات العامة يمكنهم من خلالها حماية أنفسهم من الفيديوهات المزيفة، وهي الاحتفاظ على الدوام بمقاطع الفيديو الأصلية عند ظهورهم في أي مناسبة.


وأوضح :"القدرة على كشف الفيديو المفبرك أمر صعب، لكن يمكن إثبات التزييف إذا وثق الشخص كل الفيديوهات التي ظهر فيها سواء عبر لقاءات تلفزيونية أو على وسائل التواصل الاجتماعي".


وبحسب بهاء، هناك تطبيقات متخصصة للكشف عن الفيديوهات المزيفة، وتقديم الفيديو الحقيقي الذي تم التلاعب فيه، لكنها تتعامل فقط مع الفيديوهات الموثقة، وفي حالة عدم التوثيق يستحيل بالتالي الوصول إلى المقطع الأصلي.


وتابع :"يجب على الشخصيات العامة توثيق ظهورهم المصور بالتواريخ أو الاحتفاظ بنسخة منها ليتمكنوا من العودة اليها فى حالة وجود أي مشكلة".


وبحسب تقرير بلومبرج، حدد الباحثون أدلة قد تشير إلى أن مقطع الفيديو غير أصلي، تتضمن مثلا صمت المتكلم لفترة من الوقت أو ظهوره متشنجًا بعض الشيء، أوتغير لون البشرة خلال نفس الفيديو "لكن مثل هذه التفاصيل قد لا يلاحظها المشاهد بسهولة".


وقالت إن وزارة الدفاع الأمريكية تقوم حاليا بتطوير أدوات لمواجهة التزييف العميق.


بوابة جــريدة المال 2017 جميع الحقوق محفوظة