নিখুঁত জাল ভিডিও কৃত্রিম বুদ্ধিমত্তা দ্বারা স্বীকৃত হবে
নিখুঁত জাল ভিডিও কৃত্রিম বুদ্ধিমত্তা দ্বারা স্বীকৃত হবে

ভিডিও: নিখুঁত জাল ভিডিও কৃত্রিম বুদ্ধিমত্তা দ্বারা স্বীকৃত হবে

ভিডিও: নিখুঁত জাল ভিডিও কৃত্রিম বুদ্ধিমত্তা দ্বারা স্বীকৃত হবে
ভিডিও: Buy bike according to your height. You must watch this video before buying any bike. - YouTube 2024, এপ্রিল
Anonim
লিটভিনেনকোর বিষ সম্পর্কে অপেরার প্রিমিয়ার ইংল্যান্ডে শুরু হয়
লিটভিনেনকোর বিষ সম্পর্কে অপেরার প্রিমিয়ার ইংল্যান্ডে শুরু হয়

এক বছর আগে, স্ট্যানফোর্ডের মণীশ অগ্রওয়ালা ঠোঁট-সিঙ্কিং প্রযুক্তি বিকাশে সহায়তা করেছিলেন যা ভিডিও সম্পাদকদের স্পিকারের শব্দগুলি প্রায় অস্পষ্টভাবে পরিবর্তন করতে দেয়। এই সরঞ্জামটি সহজেই এমন শব্দগুলি ertুকিয়ে দিতে পারে যা একজন ব্যক্তি কখনও বলেনি, এমনকি একটি বাক্যের মাঝখানেও, অথবা তার বলা শব্দগুলি মুছে ফেলতে পারে। সবকিছুই খালি চোখে এমনকি অনেক কম্পিউটার সিস্টেমের কাছেও বাস্তবসম্মত দেখাবে।

এই টুলটি সম্পূর্ণ দৃশ্যগুলো পুনরায় শুটিং না করে ভুল সংশোধন করা অনেক সহজ করে দিয়েছে, এবং বিভিন্ন জায়গায় বিভিন্ন দর্শকের জন্য টিভি শো বা চলচ্চিত্রকেও মানিয়ে নিয়েছে। কিন্তু এই প্রযুক্তি সত্যকে বিকৃত করার সুস্পষ্ট অভিপ্রায় দিয়ে, খুঁজে পেতে কঠিন নকল ভিডিওগুলির জন্য বিরক্তিকর নতুন সুযোগ সৃষ্টি করেছে। উদাহরণস্বরূপ, একটি সাম্প্রতিক রিপাবলিকান ভিডিও জো বাইডেনের সাক্ষাৎকারের জন্য আরও কঠোর কৌশল ব্যবহার করেছিল।

এই গ্রীষ্মে, আগ্রাওয়ালা এবং স্ট্যানফোর্ড এবং ইউসি বার্কলে সহকর্মীরা ঠোঁট-সিঙ্ক প্রযুক্তির একটি কৃত্রিম বুদ্ধিমত্তা-ভিত্তিক পদ্ধতি উন্মোচন করেছিলেন। নতুন প্রোগ্রাম ly০ শতাংশের বেশি জাল সনাক্ত করে, মানুষের শব্দ এবং তাদের মুখের আকৃতির মধ্যে ক্ষুদ্রতম বৈষম্যকে স্বীকার করে।

কিন্তু স্ট্যানফোর্ড ইনস্টিটিউট ফর মিডিয়া ইনোভেশন-এর পরিচালক এবং ফরেস্ট বাস্কেটের কম্পিউটার বিজ্ঞানের অধ্যাপক অগ্রওয়ালা, যিনি স্ট্যানফোর্ড ইনস্টিটিউট ফর হিউম্যান-সেন্টার্ড আর্টিফিশিয়াল ইন্টেলিজেন্স-এর সঙ্গেও যুক্ত, সতর্ক করেছেন যে গভীর নকলের দীর্ঘমেয়াদী প্রযুক্তিগত সমাধান নেই।

নকল কিভাবে কাজ করে

ভিডিও ম্যানিপুলেশনের বৈধ কারণ রয়েছে। উদাহরণস্বরূপ, যে কেউ একটি কাল্পনিক টিভি শো, চলচ্চিত্র বা বাণিজ্যিক চিত্রগ্রহণ করতে পারে সে ত্রুটিগুলি সংশোধন করতে বা স্ক্রিপ্টগুলি কাস্টমাইজ করতে ডিজিটাল সরঞ্জাম ব্যবহার করে সময় এবং অর্থ সাশ্রয় করতে পারে।

সমস্যাটি দেখা দেয় যখন এই সরঞ্জামগুলি ইচ্ছাকৃতভাবে মিথ্যা তথ্য ছড়িয়ে দেওয়ার জন্য ব্যবহার করা হয়। এবং অনেক কৌশলই গড় দর্শকের কাছে অদৃশ্য।

অনেক গভীর জাল ভিডিও মুখের অদলবদলের উপর নির্ভর করে, আক্ষরিক অর্থে একজন ব্যক্তির মুখ অন্য ব্যক্তির ভিডিওতে সুপারিপোজ করে। কিন্তু যখন ফেস চেঞ্জার টুলগুলি বাধ্যতামূলক হতে পারে, সেগুলি তুলনামূলকভাবে অশুদ্ধ এবং সাধারণত ডিজিটাল বা ভিজ্যুয়াল আর্টিফ্যাক্টগুলি ছেড়ে দেয় যা একটি কম্পিউটার সনাক্ত করতে পারে।

অন্যদিকে, লিপ সিঙ্ক প্রযুক্তি কম দেখা যায় এবং তাই সনাক্ত করা আরও কঠিন। তারা ছবিটির অনেক ছোট অংশে হেরফের করে এবং তারপর ঠোঁটের নড়াচড়া সংশ্লেষ করে যা ঠিক কোন ব্যক্তির মুখ যদি সে নির্দিষ্ট কিছু কথা বলে তাহলে তার মুখের গতি ঠিক কেমন হবে তার সাথে মিলে যায়। আগরওয়ালের মতে, একজন ব্যক্তির ছবি এবং কণ্ঠের পর্যাপ্ত নমুনা দেওয়া হলে, একজন ভুয়া প্রযোজক একজন ব্যক্তিকে যেকোনো কিছু বলতে পারেন।

জাল সনাক্তকরণ

এই ধরনের প্রযুক্তির অনৈতিক ব্যবহার নিয়ে উদ্বিগ্ন, আগ্রাওয়ালা স্ট্যানফোর্ডের একজন ডক্টরাল ছাত্র ওহাদ ফ্রিডের সাথে শনাক্তকরণ সরঞ্জাম তৈরির জন্য কাজ করেছিলেন; হানি ফরিদ, ক্যালিফোর্নিয়া বিশ্ববিদ্যালয়ের অধ্যাপক, বার্কলে স্কুল অফ ইনফরমেশন; এবং শ্রুতি আগরওয়াল, বার্কলেতে ডক্টরেট ছাত্র।

প্রথমে, গবেষকরা একটি বিশুদ্ধরূপে ম্যানুয়াল কৌশল নিয়ে পরীক্ষা -নিরীক্ষা করেছিলেন যেখানে পর্যবেক্ষকরা ভিডিও ফুটেজ অধ্যয়ন করেছিলেন। এটি ভাল কাজ করেছিল, কিন্তু অনুশীলনে এটি ছিল শ্রম -নিবিড় এবং সময়সাপেক্ষ।

গবেষকরা তখন একটি কৃত্রিম বুদ্ধিমত্তা ভিত্তিক নিউরাল নেটওয়ার্ক পরীক্ষা করেছেন যা প্রাক্তন রাষ্ট্রপতি বারাক ওবামার সাথে ভিডিওতে প্রশিক্ষণের পর একই বিশ্লেষণ করা অনেক দ্রুত হবে। নিউরাল নেটওয়ার্ক ওবামার নিজস্ব ঠোঁট-সিঙ্কিংয়ের 90 শতাংশেরও বেশি সনাক্ত করেছে, যদিও অন্যান্য স্পিকারের নির্ভুলতা প্রায় 81 শতাংশে নেমে এসেছে।

সত্যের আসল পরীক্ষা

গবেষকরা বলছেন যে তাদের পদ্ধতিটি বিড়াল এবং ইঁদুরের খেলার অংশ মাত্র। গভীর জালিয়াতির কৌশলগুলি উন্নত হওয়ার সাথে সাথে তারা আরও কম কী ছেড়ে দেবে।

শেষ পর্যন্ত, আগরওয়ালা বলেন, আসল সমস্যাটি এতটা মিথ্যা তথ্য প্রচারের মতো গভীরভাবে নকল ভিডিওর বিরুদ্ধে লড়াই করা নয়। প্রকৃতপক্ষে, তিনি মনে করেন, অনেক ভুল তথ্য মানুষ আসলে যা বলেছিল তার অর্থ বিকৃত করার মাধ্যমে উদ্ভূত হয়।

"ভুল তথ্য কমাতে, আমাদের মিডিয়া সাক্ষরতা উন্নত করতে হবে এবং জবাবদিহিতা ব্যবস্থা গড়ে তুলতে হবে," তিনি বলেছেন। "এর অর্থ হতে পারে ভুল তথ্যের ইচ্ছাকৃত উত্পাদন নিষিদ্ধ করা আইন এবং সেগুলি লঙ্ঘনের পরিণতি, সেইসাথে ফলে ক্ষয়ক্ষতি দূর করার পদ্ধতি।"

প্রস্তাবিত: