Applen uusi tutkimusartikkeli puhkaisee päättelevien kielimallien kuplan. Teknologiajätin tutkijoiden mukaan ”vallankumoukselliseksi” väitettyjen LRM-sovellusten päättelykykyä ja totesivat niiden hajoavan heti kompleksisuuden kasvaessa. Niiden päättelykyky ei niin sanotusti skaalaudu.
Tiettyyn pisteeseen asti ne näyttävät ajattelevan enemmän, mutta sen jälkeen ne vain luovuttavat vaikka laskentatehoa olisi yhä jäljellä. Ne ”ylipohtivat” helppoja ongelmia ja sitten pyörittelevät vääriä vastauksia oikean jo löydyttyä. Vaikeiden ongelmien kanssa ne näyttävät ”ajattelevan” vähemmän.
Tutkimuksen mukaan ”perinteisemmät” LLM:t päihittävät päättelevät LRM:t yksinkertaisissa ongelmissa, kun taas LRM:t voittavat puolestaan keskitason ongelmien ratkaisemisessa. Sekä LLM:t että LRM:t romahtavat vaikeammissa ongelmissa. Tutkimuksessa testattiin muun muassa Hanoin tornien ratkaisukykyä.
Ote artikkelista: Recent generations of frontier language models have introduced Large Reasoning Models
(LRMs) that generate detailed thinking processes…