Дали мултимилиардните инвестиции в AI са пари, насочени в правилната посока е въпрос, който придоби още по-голяма актуалност, след като изследователски екип от Вашингтонския университет успяха да тренират имитиращ логически процес модел и да постигнат високи резултати с него след инвестиция от само 50 долара, пише TechCrunch.
За целта те са използвали AI с отворен код и "познанията" на голям комерсиален модел. В случая - на Google.
Разработката на учените, наречена s1, се базира на китайския общодостъпен модел Qwen2.5-32B. Той е бил захранен с 1000 внимателно подбрани въпроса и начина, по който AI на Google - Gemini 2.0 Flash Thinking Experimental, не само е отговорил, но и е "разсъждавал".
Това е т.нар "дестилация", чрез която по-малък модел извлича "познанията" на по-голям в определени области. В момента американските компании обвиняват китайската DeepSeek, че именно по този начин е достигнала високите резултати на своя AI.
След само 30 минути обработка с 16 процесора Nvidia H100, s1 е достигнал резултати в тестовете по математика и програмиране, сравними с флагманския модел OpenAI o1 и китайския му конкурент DeepSeek R1, който срина пазара преди дни с появата си.
Важно уточнение - s1 е с 32 милиарда параметъра. Това в общия случай означава, че може да работи на по-мощна потребителска видеокарта.
Това поставя и логичния въпрос колко далеч сме от ситуация, в която няма да са нужни мощни (и скъпи) центрове за данни за всекидневните AI задачи.