Выбор редакцииҒылым және техника

«Путин сияқты адамдар ішкі мақсатына пайдалануы мүмкін»: Жасанды интеллектті жасаушы ғалым оның қауіптілігін ескертті

Жасанды интеллекттің «өкіл әкесі» ретінде танылған ғалым Джеффри Хинтон Google-дан кететінін жариялаған еді. Ол жаңа технологияның қауіпі артып келе жатқанын айтып, көпшілікке ескерту жасады деп хабарлайды Stan.kzақпарат агенттігі BBC порталына сілтеме жасап.

 

Ғалым жасанды интеллект чат-боттары тудындатуы мүмкін кейбір қауіптері туралы айтты. Оның айтуынша қазір олардың деңгейі адамдардың ақылынан аса қойған жоқ. Дегенмен жақын арада адамнан да асатын ақылды болуы мүмкін.

“Қазір біз GPT-4 сияқты жүйелер адамның жалпы білімінен айтарлықтай асып түсетінін көріп отырмыз. Ал ойлау жағынан ол әлі онша дамымаған. Дегенмен оның қарапайым тұжырымдар жасауда өте қабілетті екенін мойындаған жөн. Мұндай қарқынмен алдағы уақытта жасанды интеллект адам сенгісіз тез дами түседі. Сондықтан алаңдайтын кез келді», — деді Джеффри Хинтон.

Джеффри Хинтон ең қорқыныштысы AI технологиясын «зұлымдық жасау» үшін қолдану екенін жеткізді.

«Бұл ең сорақы, қорқынышты жайт. Мысалы, Ресей президенті Владимир Путин сияқты қандай да бір жаман ниеттегі адам роботтарды өзінің ішкі мақсаттары үшін пайдалануы мүмкін. Жасанды интеллект оған биліктен ненің қажет екенін айтып беруі мүмкін», — деп ескертті ғалым.

Джеффри Хинтон жасына байланысты Google-дың бас ғалымы қызметінен кетті. Ол 2022 жылдың желтоқсанында 75 жасқа толды. Джеффри Хинтонның терең оқыту және нейрондық желілердегі алғашқы зерттеулері ChatGPT сияқты заманауи AI жүйелерінің негізін қалады.

Другие новости

Back to top button