Um novo site inclui uma ferramenta muito simples, mas ultra prática: CanIRun.ai permite, com um clique, descobrir se o seu dispositivo (smartphone, tablet ou PC) é capaz de executar inteligência artificial localmente diretamente na sua máquina.

Imagem gerada por IA

Executar inteligência artificial diretamente no seu próprio dispositivo está atraindo cada vez mais usuários, com novas ferramentas como o OpenClaw, da qual o Clubic está dando uma grande demonstração.

Este método garante total confidencialidade das trocas e permite trabalhar sem qualquer ligação à Internet. Porém, diante da complexidade técnica dos modelos de linguagem (os famosos LLMs, que são os motores de computador por trás das ferramentas de geração de texto), muitas vezes é muito difícil saber se sua máquina possui ombros largos o suficiente para suportar tamanha carga computacional.

Para resolver esse problema, o site CanIRun.ai oferece uma solução de diagnóstico diretamente no navegador.

Diagnóstico de hardware claro e sem jargões

Se você conhece videogames de computador, provavelmente conhece as plataformas que analisam sua configuração para informar se um título recente funcionará corretamente. CanIRun.ai pega exatamente esse conceito, mas o aplica à inteligência artificial local. Seu objetivo é escanear seu hardware para listar os modelos abertos que podem ser instalados sem deixar seu computador de joelhos.

Os resultados com uma GeForce RTX 5070 Ti

A interface da ferramenta tem o mérito de deixar de lado o jargão bruto para classificar os modelos segundo critérios de fluidez. Em vez de se afogar em cálculos complexos envolvendo VRAM (a memória de vídeo dedicada em sua placa gráfica) ou quantização (métodos de compressão computacional que reduzem o peso dos modelos de IA para encaixá-los na memória), o site oferece um veredicto simples.

Os modelos são classificados desde os mais confortáveis ​​até os completamente fora de alcance, recorrendo a um vasto catálogo de opções de código aberto como Llama, Qwen, Mistral ou mesmo Gemma.

Desempenho na prática: o exemplo concreto do Llama 3.1

Para compreender completamente a utilidade desta abordagem, é interessante observar as estimativas de desempenho geradas para o Llama 3.1, um modelo de linguagem com 8 bilhões de parâmetros. O indicador de benchmark exibido pela ferramenta é o número de tokens por segundo (tok/s), métrica que corresponde esquematicamente à velocidade de geração e exibição de palavras na tela.

Em um laptop MacBook Pro equipado com chip Apple M1 Pro com 16 GB de memória, a velocidade estimada pela ferramenta é de 28 tokens por segundo. Ao mudar para um chip M1 Max com 32 GB, essa taxa aumenta para 57 tokens por segundo.

Dispositivo e configuração Modelo de IA testado Velocidade estimada
PC com Nvidia RTX 5070 Ti Lhama 3.1 (8 bilhões de parâmetros) 136 tok/s
Mac M1 Máx. (32 GB de memória) Lhama 3.1 (8 bilhões de parâmetros) 57 tok/s
Mac M1 Pro (16 GB de memória) Lhama 3.1 (8 bilhões de parâmetros) 28 tok/s
Mac M5 (16 GB de memória) Lhama 3.1 (8 bilhões de parâmetros) 22 tok/s
iPhone 17 Pro (8 GB de memória) Lhama 3.2 (1 bilhão de parâmetros) 31 tok/s

Uma configuração como um MacBook Air integrando um chip M5 de 16 GB exibe 22 tokens por segundo. Na frente de PCs estacionários com verdadeira força de ataque gráfico dedicado, os números disparam, já que uma placa Nvidia RTX 5070 Ti atinge 136 chips por segundo.

A ferramenta também leva em consideração os smartphones: um iPhone 17 Pro com 8 GB de RAM gera 31 tokens por segundo, mas vale ressaltar que esse cálculo se aplica a um modelo significativamente mais leve, o Llama 3.2 com 1 bilhão de parâmetros.

Vantagem de hardware e proteção de dados da Apple

A operação do CanIRun.ai destaca uma particularidade da arquitetura de hardware da Apple. Ao contrário da maioria dos PCs Windows tradicionais, que separam fisicamente a RAM do processador e a memória de vídeo da placa gráfica, os Macs recentes usam a chamada memória unificada.

Segundo observações veiculadas pela Numerama, os criadores da ferramenta enfatizam que “ um modelo pode usar até aproximadamente 75% da memória total “, o que dá uma vantagem mecânica aos Macs bem dotados de RAM quando se trata de carregar modelos pesados ​​de IA.

Comparação entre um chip Apple M2 Pro e uma GeForce RTX 5070 Ti

Mas os Macs não são os únicos, cada vez mais PCs chegam com memória unificada, nomeadamente com chips AMD Ryzen, como o Desktop Framework e os seus 128 GB de RAM utilizáveis ​​diretamente pela GPU para IA.

A questão da recolha de dados pessoais continua obviamente central quando um site analisa os componentes da sua máquina. No entanto, os desenvolvedores querem ser muito claros sobre a metodologia utilizada. “ Quando você visita o site, usamos as APIs do seu navegador para detectar sua GPU, CPU e memória e, em seguida, calcular quais modelos de IA podem ser executados em seu hardware e em que velocidade. Nenhum dado é enviado para um servidor. Tudo é calculado do lado do cliente », Especificam na página inicial da plataforma.


Você sabia? O Google Notícias permite que você escolha sua mídia. Não perca Frandroid e Numerama.

Fonte

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *