https://powerinai.com/

একদল প্রতারক নির্দিষ্ট ব্যক্তির কণ্ঠস্বর নকল করে ফোনকল করছে

একদল প্রতারক নির্দিষ্ট ব্যক্তির কণ্ঠস্বর নকল করে ফোনকল করছে একদল প্রতারক নির্দিষ্ট ব্যক্তির কণ্ঠস্বর নকল করে ফোনকল করছে
 
একদল স্ক্যামার একটি নির্দিষ্ট ব্যক্তির ভয়েস নকল করতে কৃত্রিম বুদ্ধিমত্তা (এআই) প্রযুক্তি ব্যবহার করছে। তারপর, তারা কৃত্রিম কণ্ঠস্বর ব্যবহার করে ব্যক্তির আত্মীয় বা পরিচিতদের ফোন করে এবং বিভিন্ন উপায়ে অর্থ প্রতারণা করে। 

সম্প্রতি ভারতের রাজধানী দিল্লিতে বসবাসকারী এক বৃদ্ধকে ফোন করে হ্যাকার। কল চলাকালীন, তার ভাগ্নের কণ্ঠের অনুকরণে একটি অডিও বার্তা বাজানো হয়েছিল। হ্যাকার দাবি করেছে শিশুটিকে অপহরণ করা হয়েছে।

এরপর হ্যাকাররা ওই ব্যক্তির কাছে ৫০ হাজার টাকা মুক্তিপণ দাবি করে। পরে, ব্যক্তি জানতে পারে যে অপহরণটি জাল এবং তাকে প্রতারিত করা হয়েছে। 

কণ্ঠস্বর নকল করে কেউ প্রতারণা করছে কি না, তা যাচাইয়ের জন্য বেশ কিছু বিষয়ে সচেতন থাকার পরামর্শ দিয়েছেন সাইবার নিরাপত্তা বিশ্লেষকেরা। এ ধরনের ঘটনা ঘটলে বোঝার চেষ্টা করতে হবে এটি জরুরি কোনো ঘটনা নাকি কেউ ব্ল্যাকমেল করছে।

সাধারণত হ্যাকাররা এমন পরিস্থিতিতে বিভিন্নভাবে ভয়ভীতি দেখায় ও আতঙ্ক তৈরি করে। শব্দ অনুকরণ করতে কৃত্রিম বুদ্ধিমত্তা (এআই) ব্যবহার করা একেবারে নতুন প্রযুক্তি।

ফলস্বরূপ, হ্যাকাররাও এতে খুব বেশি পারদর্শী নয়, সাইবার নিরাপত্তা বিশ্লেষকরা বলছেন। তাই আপনাকে ফোনের শব্দ শুনতে হবে এবং শব্দের মধ্যে কোনো কৃত্রিম (এআই) উপস্থিতি আছে কিনা তা বোঝার চেষ্টা করতে হবে।

এ ছাড়া বাক্যগুলো কীভাবে শেষ হয় সেদিকেও মনোযোগ দিতে হবে।







০ টি মন্তব্য



মতামত দিন

আপনি লগ ইন অবস্থায় নেই।
আপনার মতামতটি দেওয়ার জন্য লগ ইন করুন। যদি রেজিষ্ট্রেশন করা না থাকে প্রথমে রেজিষ্ট্রেশন করুন।







পাসওয়ার্ড ভুলে গেছেন? পুনরায় রিসেট করুন






রিভিউ

আপনি লগ ইন অবস্থায় নেই।
আপনার রিভিউ দেওয়ার জন্য লগ ইন করুন। যদি রেজিষ্ট্রেশন করা না থাকে প্রথমে রেজিষ্ট্রেশন করুন।