সংগৃহীত
টেকলাইফ

কৃত্রিম বুদ্ধিমত্তাসম্পন্ন ডিপফেক প্রযুক্তি

তথ্য-প্রযুক্তি ডেস্ক: মানব জাতির জন্য বিশেষ করে তারকাদের কাছে ক্রমশ এক অভিশাপের নাম হয়ে উঠছে কৃত্রিম বুদ্ধিমত্তাসম্পন্ন ডিপফেক প্রযুক্তি। কেননা এই প্রযুক্তির অপব্যবহার করে সেলিব্রিটিদের ভুয়া পর্নো বা আপত্তিকর ভিডিও তৈরি করা হচ্ছে।

ডিপফেক প্রযুক্তির সহায়তায় যেকোনো ব্যক্তির এমন ছবি, ভিডিও বা অডিও কন্টেন্ট তৈরি করা সম্ভব যা তিনি নিজে বলেননি বা করেননি। যেমন- হঠাৎ করেই আপনার কাছের কোনো মানুষ আপনাকে একটি ভিডিও দিল। ভিডিও চালু করে আপনি অবাক। অশ্লীল এক ভিডিওতে আপনাকে দেখা যাচ্ছে; চেহারা, ভয়েস, এক্সপ্রেশন অবিকল আপনার। আপনি জানেন ভিডিওর ব্যক্তি আপনি নন। কিন্তু ভিডিওটি এতটাই বাস্তব যে আপনার নিজেরও বিশ্বাস করতে হবে ভিডিওর ব্যক্তি আপনি নন। কিন্তু কী করে এটা সম্ভব? ডিপ ফেক টেকনোলজির মাধ্যমে এটা সম্ভব।

ডিপফেকের মাধ্যমে কিছুদিন আগে ভারতীয় জনপ্রিয় অভিনেত্রী রাশমিকা মান্দানার একটি অশ্লিল ভিডিও তৈরি করে সোশ্যাল মিডিয়ায় ছেড়ে দেওয়া হয়। এরপর থেকে এই প্রযুক্তি ফের আলোচনায়।

ডিপফেকের অপব্যবহার বৃদ্ধি পাওয়ায় বিশ্বের বিভিন্ন দেশে গায়ক-গায়িকা, অভিনেতা-অভিনেত্রী, ইনফ্লুয়েন্সার, মডেল, ক্রীড়াবিদসহ অনেকেই হেনস্তার শিকার হচ্ছেন। এক গবেষণায় দেখা গেছে, ডিপফেক ভিডিও’র ৯৬ শতাংশ পর্নোগ্রাফি সম্পর্কিত। ডেইজি রিডলি, জেনিফার লরেন্স, এমা ওয়াটসন এবং গ্যাল গ্যাডট এর মতো বড় বড় তারকার ডিপফেক পর্নোগ্রাফি ভিডিও ভাইরাল হয়েছিল।

ডিপফেক প্রযুক্তির দ্বারা আক্রান্তদের পরবর্তী গ্রুপ হলেন বড় বড় রাজনীতিবিদরা। বেশ কয়েকবছর আগেই আমেরিকার সাবেক প্রেসিডেন্ট বারাক ওবামা কর্তৃক প্রেসিডেন্ট ট্রাম্পকে অপমান করার ডিপফেক ভিডিও ভাইরাল হয়েছিল।

অপর একটি ডিপফেক ভিডিওতে রাজনীতিবিদ ন্যান্সি পেলোসির বক্তৃতা এমনভাবে ডিপফেক করা হয়েছিল যাতে দর্শকরা ভাবেন যে তিনি মাতাল ছিলেন। আবার অন্য একটি ডিপফেক ভিডিওতে আমেরিকার প্রেসিডেন্ট ট্রাম্পকে প্যারিস জলবায়ু চুক্তিতে সদস্যপদ নিয়ে বেলজিয়ামকে উপহাস করতে দেখা যায়।

অপর একটি ডিপফেক ভিডিওতে ইউক্রেনের প্রেসিডেন্ট ভলোদিমির জেলেনস্কিকে সেনাদের আত্মসমর্পণ করার কথা বলতে দেখা যায়। ফেসবুকের প্রতিষ্ঠাতা মার্ক জাকারবার্গেরও ডিপফেক ভিডিও ভাইরাল হয়েছিল, যেখানে দেখানো হয় জাকারবার্গ ডাটা চুরি নিয়ে গর্ববোধ করছেন।

২০১৭ সালে সর্বপ্রথম প্রচারণা পায় ডিপফেক টেকনোলজি। ডিপফেক নামটির মধ্যেই এর সংজ্ঞা রয়েছে। ডিপ শব্দটি এসেছে ‘ডিপ লার্নিং’ অর্থাৎ গভীরভাবে শিক্ষা নেওয়া এবং অপরদিকে ‘ফেক’ অর্থাৎ নকল বা ভুয়া এই দুই শব্দের সংমিশ্রণ থেকে। অর্থাৎ, ডিপফেক বলতে গভীরভাবে নকল করা হয়েছে এমন কিছুকে বোঝায়।

ফটোশপ আর ডিপফেক দুটো ভিন্ন প্রযুক্তি। ডিপফেক ভিডিও বা ছবি তৈরির ক্ষেত্রে অ্যাডভান্সড ডিপ লার্নিং অ্যালগরিদমের সাহায্য নেওয়া হয়। কৃত্রিম বুদ্ধিমত্তার সাহায্যে ডিপফেক ভিডিও কিংবা ইমেজের ক্ষেত্রে এমন জিনিস তৈরি করা হয়, যা দেখলে বিশ্বাসযোগ্য বলে মনে হবে।

এই প্রযুক্তি যে কেবল নকল ভিডিও তৈরি করতে পারে তা নয়। এটি মানুষের ভয়েস মডেলও তৈরি করতে পারে। এর মানে এই যে একজন রাজনীতিবিদের শব্দ বা কণ্ঠস্বর নকল করে কোনো আপত্তিকর বিবৃতি দেওয়ার জন্য কোনো ছদ্মবেশীর প্রয়োজন হয় না। পরিবর্তে তাদের ভয়েস বা কণ্ঠস্বর নকল করতে কৃত্রিম বুদ্ধিমত্তাকে প্রশিক্ষিত করা যায়।

ডিপফেক প্রযুক্তি অসৎ কাজে বেশি ব্যবহৃত হলেও এই প্রযুক্তির বেশ কিছু ভালো দিক রয়েছে। বিশেষত বিনোদনশিল্পে এ প্রযুক্তির ব্যবহার অনেক বেশি সহায়কের ভূমিকা পালন করে। যেমন ডাবিংয়ের মান উন্নত করতে, মৃত অভিনেতার অসমাপ্ত কাজ সমাপ্ত করতে কিংবা জাদুঘর বা গ্যালারিকে প্রাণবন্ত করতে এর জুড়ি মেলা ভার।

‘স্টার ওয়্যারস’ খ্যাত অভিনেত্রী ক্যারি ফিশার। ২০১৬ সালে এই চলচ্চিত্র সিরিজের একটি প্রিকুয়েল ‘রৌগ ওয়ান’ মুক্তি পায়। এই সিনেমার এক দৃশ্যে সিরিজের জনপ্রিয় চরিত্র প্রিন্সেস লিয়ার যুবতী সময়ের কিছু দৃশ্য প্রয়োজন ছিল। কিন্তু ক্যারি ফিশার তখন ষাট বছরে পা দিয়েছেন। ফলে তার কম বয়সী সংস্করণ তৈরি করতে ডিপফেক প্রযুক্তির আশ্রয় নেওয়া হয়।

ডিপফেক প্রযুক্তি তৈরি করার পেছনে মূল নির্মাতাদের কোনো খারাপ উদ্দেশ্য না থাকা সত্ত্বেও, এটি মানুষকে খারাপ উদ্দেশ্যে ব্যবহার থেকে বিরত রাখতে পারেনি।

খালি চোখে ডিপফেক ভিডিও শনাক্ত করা সম্ভব না হলে প্রযুক্তির সহায়তায় সেটি সম্ভব। এ জন্য বিভিন্ন টুল রয়েছে। ছবির জন্য ফটো মেটাডেটা বা ভিডিও মেটাডেটা টুলস কিংবা সাধারণ ভিডিওর জন্য ইনভিড বা ইউটিউব ডেটা ভিউয়ার ব্যবহার করে যাচাই করা যায়। তা ছাড়া ফেস ফরেনসিকস টুলও ব্যবহার করা যায় ডিপফেক প্রযুক্তিতে তৈরি ভিডিও শনাক্ত করতে। এ ছাড়া বায়োমেট্রিকস ব্যবহার করেও এ প্রযুক্তির ভিডিও যাচাই করা যায়।

সাইবার বিশেষজ্ঞদের মতে, ডিপফেকের ফলাফল খুবই ভয়ংকর হয়েছে এবং সামনে আরও ভয়ংকর হবে, বিশেষ করে গণ্যমান্য ব্যক্তি এবং সেলিব্রিটিদের জন্য এটি বিপর্যয়কর পরিণতি নিয়ে আসবে। ডিপফেক এর প্রভাবে শুধু ক্যারিয়ার নয়, জীবন ও নষ্ট করা সম্ভব, কিছুক্ষেত্রে সম্পূর্ণরূপে ধ্বংস হয়েও যেতে পারে। এমনকি আন্তর্জাতিক কোনো ডিপফেক ঘটনা যুদ্ধ শুরু করার জন্য বিশ্ব নেতাদের নকল ভিডিও ব্যবহার করতে পারে। এই প্রযুক্তি দিয়ে যেমন একজন ব্যক্তির খ্যাতি ক্ষুন্ন করা সম্ভব, তেমনি এই প্রযুক্তির মাধ্যমে কাউকে দিয়ে এমন কিছু বলাতে বা করাতে পারে যার ফলাফল বিশ্বব্যাপী হতে পারে। তথ্যসূত্র: মিডিয়াম

এবি/এইচএন

Copyright © Amarbangla
সবচেয়ে
পঠিত
সাম্প্রতিক

কুষ্টিয়ায় হাত-পা বাঁধা অবস্থায় বয়স্ক নারীর লাশ উদ্ধার

কুষ্টিয়ার ভেড়ামারা উপজেলায় হাত–পা বাঁধা অবস্থায় খাইরুন নেছা (৬০) নামের...

অবশেষে সুফিয়ানই চট্টগ্রাম-৯ আসনে বিএনপির প্রার্থী

চট্টগ্রাম-৯ আসনে আবু সুফিয়ানকে বিএনপির মনোনীত প্রার্থী হিসেবে ঘোষণা করেছে কে...

কুষ্টিয়ায় সীমান্তের বসবাসরত নাগরিকদের সাথে বিজিবির মতবিনিময়

কুষ্টিয়ার সীমান্ত এলাকায় বসবাসরত স্থানীয়দের সঙ্গে মতবিনিময় করেছে বর্ডার গার্ড...

সজীব ওয়াজেদ জয়ের বিরুদ্ধে গ্রেপ্তারি পরোয়ানা জারি

জুলাই-আগস্টের গণঅভ্যুত্থানের সময় হত্যাযজ্ঞের ঘটনায় দায়ের করা মামলায় সাবেক...

বিটরুটের ১০ উপকারিতা

বিটরুটকে বলা হয় সুপারফুড। এতে আছে প্রচুর উপকারী পুষ্টি উপাদান। হৃৎপিণ্ড সুস্থ...

বৈষম্য দূর হবে ভেবেছিলাম, কিন্তু ২৪-এর পরও চাঁদাবাজি বন্ধ হয়নি: মুফতি ফয়জুল করীম

ইসলামী আন্দোলন বাংলাদেশের সিনিয়র নায়েবে আমির মুফতি সৈয়দ মুহাম্ম...

আল কোরআনের বাংলাদেশ দেখতে চাই: মামুনুল হক

সোনার বাংলাদেশ দেখা শেষ, ডিজিটাল বাংলাদেশ দেখা শেষ- এবার আল কোরআনের বাংলাদেশ...

‘ইসলামি শক্তিকে থামানো যাবে না’- চট্টগ্রামে এটিএম আজহারুল

জামায়াতে ইসলামীর নায়েবে আমির এ টি এম আজহারুল ইসলাম বলেছেন, বাংলাদেশে...

চট্টগ্রামে দেশীয় এলজিসহ আটক ১

চট্টগ্রামের কর্ণফুলী থানার পুলিশ বৈরাগ উত্তর বন্দর এলাকা থেকে অস্ত্রসহ রাশেদ...

সীতাকুণ্ডে বিএনপি প্রার্থীর মতবিনিময় সভা

চট্টগ্রাম কাট্টলী ও বিশ্বাস পাড়ার সাবেক বিএনপি নেতা-কর্মীদের সঙ্গে মতবিনিময় স...

লাইফস্টাইল
বিনোদন
খেলা