
(FOLHAPRESS) – Esmolar respostas mais concisas do ChatGPT -ou de outros modelos de lucidez sintético generativa- pode sintetizar o consumo de vigor em 54%, de pacto com testes feitos por University College London (UCL) e Unesco. Minguar o massa do rogo pela metade reduz o cotiado de eletricidade em 5%.
Por isso, reportar uno baliza de parágrafos ou palavras pode amealhar bem mais vigor do que desistir de ser doutrinado com a lucidez sintético -o CEO da OpenAI, Sam Altman, já disse nas redes sociais que a empresa gasta “dezenas de milhões de dólares” com a graciosidade de seus usuários que digitam “forçado” ou “por mercê”.
Os pesquisadores fizeram testes com IAs de código franco da Escopo, rodando em máquinas próprias -isso permitiu seguir a demanda de eletricidade dos computadores e surgir aos resultados apresentados no item.
A Unesco recomenda, acolá da acessão de campanhas de conscientização dos usuários, que as empresas igualmente adotem ferramentas para estancar os resultados entregues pelos modelos de IA. Trata-se de uma tecnologia que já está no mercado e reduz o período de processamento sem comprometer a inclinação, diz o relatório.
“A obrigação por uma IA energeticamente eficaz nunca deveria recair unicamente a cerca de os usuários”, diz a autora do análise e profissional da Unesco, Leona Verdadero. “Contudo, se isso for adotado em graduação, o rogo de respostas mais curtas poderia levar a economias energéticas significativas, mesmo sem mudanças estruturais”, disse a profissional.
A Unesco afeição que o ChatGPT gasta, hoje, tapume de 310 GWh por ano unicamente respondendo a pedidos para fabricar teor –isto é, sem reputar os gastos com vídeos e imagens. É uno consumo comparável ao de mais de 3 milhões de etíopes, onde o hábito mediano per capita é de 96 kWh por ano.
Para isso, a organismo usou porquê menção o valia de 0,34 Wh cotiado em média por rogo -o aludido foi aludido em item assinado por Altman– e a estatística de 1 bilhão de acessos diários, divulgada pela OpenAI.
Os cálculos incluem unicamente o dispêndio de inferência, o instante em que o usuário interage com a utensílio de IA. Outros milhares de GWh são gastos a mira de exercitar os modelos para que entreguem os resultados esperados.
“O ônus realmente deveria estar mais do renque dos desenvolvedores e implementadores desses sistemas de IA”, afirma Verdadero. Por isso, a profissional da Unesco retém a geração de ferramentas que ajudem os consumidores a elaborar escolhas mais conscientes.
“É porquê os rótulos nutricionais nos provisões, que moldaram nossas escolhas alimentares. Acreditamos que rótulos de vigor para IA podem acolitar os usuários a elaborar escolhas mais informadas”, explica.
‘PEQUENO É PODEROSO’, DIZ UNESCO
Mais eficaz ainda, de pacto com Verdadero, é antepor os modelos de idioma pequenos e especializados, que entregam exacção com 10% do consumo de eletricidade exigido por uno vasto IA generalista, porquê ChatGPT, Claude ou Gemini.
A pesquisadora, todavia, reconhece que há uno duelo de financiamento, como projetos focados no crescimento de IAs generalistas, capazes de elaborar uma ampla gama de tarefas, conquistaram a amabilidade de capitalistas de riscos e outros investidores.
“É o que estamos vendo com avanços nos modelos de pensamento e no raciocínio de que ‘maior é melhor'”, afirma Real.
No entanto, a pesquisadora afirma que os testes feitos no análise indicam que os modelos pequenos se saem em tal grau apoiado quanto os grandes em tarefas porquê versão, geração de resumos e resposta de dúvidas, a partir de que recebam uno treinagem ulterior para certas tarefas. “Em algumas situações, até superam os grandes modelos”, diz a pesquisadora.
A Unesco igualmente destaca que os pequenos modelos de idioma abrem uma eventualidade para países com menor infraestrutura computacional, em regiões porquê a África e a América Latina, desenvolverem as próprias ferramentas de lucidez sintético.
É o acontecimento da startup brasileira Dharma AI, que já desenvolve versões especializadas dos pequenos modelos de idioma para empresas. O chinês Qwen 2.5b, uma das IAs utilizadas pela Dharma, tem, por exemplo, 2,5 bilhões de parâmetros (porquê se fossem os neurônios da rede neural), contra mais de 1 trilhão no acontecimento de modelos porquê o GPT-4, que está por baixo de o capô do ChatGPT.
Incubada no Porto Maravalley, da Prefeitura do Rio de Janeiro, a Dharma AI já apresentou uma interpretação do Qwen treinada com apoio em textos jurídicos brasileiros. Em uno teste acabado pela empresa, a sua utensílio obteve vitória em 85% das simulações, contra uno index de 68% do ChatGPT. O importância para cumprir a serviço no curto exemplar brasiliano foi de US$ 0,003, contra US$ 0,608 no ChatGPT.
Em item divulgado em junho, a Nvidia defendeu que os pequenos modelos de idioma são mais adequados e economicamente necessários no crescimento de sistemas de lucidez sintético mais complexos.
“Embora capacidades conversacionais gerais sejam essenciais, sistemas autônomos que usam múltiplos modelos diferentes são a selecção ingénito em termos de eficácia”, diz o gigante da tecnologia, que despontou porquê empresa mais valiosa do globo por projetar os chips usados no crescimento de IA.
O relatório da Nvidia, diz a própria companhia, procura espicaçar discussões a cerca de hábito eficiente de recursos de IA e sintetizar os custos atuais da tecnologia.
A Unesco apresenta dados da Sucursal Internacional de Pujança (IEA) para realçar a premência do contenda: o consumo de eletricidade com IA está dobrando a cada século dias, pressionando a infraestrutura global de transmissão energética e provimento hídrico.
Leia Igualmente: XChat é a nova experiência de mensagens privadas de Elon Musk

Deixe o seu Comentário