Shutterstock
Środowisko

Sztuczna inteligencja: kto pyta, ten emituje

Agenci AI dogadują się za plecami człowieka
Technologia

Agenci AI dogadują się za plecami człowieka

Duże modele językowe potrafią spontanicznie wypracowywać własne konwencje językowe – i to bez jakichkolwiek zewnętrznych instrukcji czy modyfikacji oprogramowania.

Z dużych modeli językowych trzeba korzystać rozsądnie – zadawać im na początek proste zadania, a dopiero, gdy to nie wystarczy, sięgać po tryb rozumowania. Dlaczego? Bo to lepsze dla klimatu.

Niezależnie od tego, jakie polecenie wydasz programowi AI, on je wykona – dobrze lub źle. Aby jednak to uczynić, najpierw rozbije słowa lub części słów na tokeny, czyli mniejsze kawałki przekonwertowane na ciągi cyfr. To – podobnie jak inne procesy obliczeniowe – wiąże się z emisją CO2. Naukowcy postanowili zmierzyć i porównać te generowane przez czternaście modeli językowych, zadając im długie serie standardowych pytań.

Były wśród nich proste pytania, które nie wymagały od sztucznej inteligencji wielkiego wysiłku i nie angażowały dużych mocy obliczeniowych. Były też trudniejsze – wykorzystujące opcję „rozumuj”, w której model językowy najpierw rozkłada na czynniki pierwsze bardziej złożone problemy, następnie dokonuje oceny poszczególnych elementów, porównuje, zestawia, symuluje – słowem wykonuje masę czynności analitycznych i dopiero po ich zakończeniu przedstawia efekt. Funkcja ta cieszy się coraz większą popularnością w miarę, jak rosną ludzkie oczekiwania wobec AI. A chcemy, żeby za nas główkowała, wyciągała wnioski, kojarzyła fakty, czy też szukała związków przyczynowo-skutkowych.

„Odpowiadając na proste pytanie, modele rozbijały je zwykle na 30–50 tokenów. W przypadku pytań skomplikowanych tych tokenów było generowanych średnio 500–600, ale czasami ich liczba przekraczała tysiąc. To oczywiście przekładało się na znacząco większe zużycie prądu przez komputer” – relacjonuje Maximilian Dauner, główny autor badań opublikowanych we Frontiers in Communication”. Liczył się też sposób zadania pytania oraz zakres oczekiwanej wiedzy. Na przykład prosta kwestia z zakresu historii filozofii obciążała modele średnio sześć razy mniej niż bardziej wymagająca, polegająca np. na porównaniu dwóch nurtów filozoficznych.

„Generalnie modele językowe, które udzielały bardziej precyzyjnych odpowiedzi na złożone pytania, generowały większy ślad węglowy. Coś za coś” – komentuje Dauner. Naukowiec zaleca rozsądne korzystanie z modeli i zadawanie im na początek prostych pytań, a dopiero, gdy to nie wystarczy, sięgnięcie po tryb rozumowania. „Analizy wskazują, że ludzie często zmuszają AI do wytężonej pracy, której efektów potem nie wykorzystują, albo wykorzystują w niedużym stopniu”.


Dziękujemy, że jesteś z nami. To jest pierwsza wzmianka na ten temat. Pulsar dostarcza najciekawsze informacje naukowe i przybliża najnowsze badania naukowe. Jeśli korzystasz z publikowanych przez Pulsar materiałów, prosimy o powołanie się na nasz portal. Źródło: www.projektpulsar.pl.

Ta strona do poprawnego działania wymaga włączenia mechanizmu "ciasteczek" w przeglądarce.

Powrót na stronę główną