LLAMABOX
GPU CloudsAboutIntroduzione alle GPUPrivacy
  • Bias e Discriminazione nei Sistemi di Intelligenza Artificiale. Analisi e Soluzioni
    Analizziamo il concetto di bias nell'intelligenza artificiale, evidenziando come le disuguaglianze sociali, storiche e culturali possano influenzare gli algoritmi e i modelli di machine learning
    19 September 2024


  • Dubbi e Accuse di Frode su Modello AI Reflection 70B
    Reflection 70B, una variante del modello Llama 3.1 di Meta, ha visto il suo status di leader emergente nell'AI open source messo in discussione e apertamente accusato di frode. Lanciato da HyperWrit...
    10 September 2024


  • Valutazione Costi-Benefici Sostituendo LLM con SLM Open-Source
    Analizziamo il paper di Irugalbandara et al. (2024) intitolato *Scaling Down to Scale Up: A Cost-Benefit Analysis of Replacing OpenAI’s LLM with Open Source SLMs in Production*....
    31 August 2024


  • SB 1047: Una Minaccia per l'Innovazione nell'Intelligenza Artificiale
    Recentemente, la California ha approvato il disegno di legge SB 1047, che propone di imporre responsabilità civili agli sviluppatori AI
    30 August 2024


  • Crollo di Super Micro Computer: Ritardi e Preoccupazioni Contabili
    Super Micro Computer ha subito un notevole crollo delle azioni, registrando una diminuzione del 24,6% alle 10:45 ET, a seguito dell'annuncio di un ritardo nella presentazione del 10-K per l'anno fisc...
    29 August 2024


  • Compatibilità tra Intelligenza Artificiale e Sostenibilità: Una Prospettiva Analitica
    Qual è la compatibilità tra l'Intelligenza Artificiale (AI) e i principi di Environmental, Social, and Governance (ESG). L'importanza di questo argomento risiede nella crescente adozione dell'AI, che, sebbene porti numerosi benefici, può avere un impatto significativo sul consumo energetico e, di conseguenza, sulle emissioni di gas serra
    15 August 2024


  • Impatto Ambientale dell'Intelligenza Artificiale: Consumo Energetico e Emissioni di CO2 nei Modelli AI
    Quanto vale l’impatto ambientale dell’intelligenza artificiale (AI)? Focalizzandosi sull’elevato consumo energetico dei modelli linguistici di grandi dimensioni possiamo dire che questi modelli richiedono enormi quantità di dati e calcoli, contribuendo significativamente alle emissioni globali di CO2.
    30 July 2024


  • Non solo NVidia, anche Broadcom ha una Posizione esclusiva nel Mercato AI-Hardware
    Broadcom ha registrato una crescita significativa delle entrate derivanti dall’intelligenza artificiale (AI), con un aumento del 280% anno su anno. Questa crescita nel settore AI è in grado di compensare il calo delle entrate derivanti dalle vendite di semiconduttori non AI, dimostrando una forte capacità di adattamento e crescita in...
    18 July 2024


  • Agenti AI: stato attuale e prospettive future
    L’entusiasmo iniziale per i flussi di lavoro basati su agenti è calato, ma il loro potenziale continua a suscitare interesse. Questo articolo esamina il presente e il futuro degli agenti AI, concentrandosi sulla loro praticità, affidabilità e implicazioni.
    06 July 2024


  • Prompt tuning nei modelli LLM. Perché è più interessante del fine tuning e del prompt engineering
    I termini “fine-tuning”, “prompt tuning” e “prompt engineering” sono correlati ma rappresentano tecniche distinte nel contesto dell’adattamento dei modelli di linguaggio. Ecco una spiegazione chiara di ciascuna tecnica e delle loro differenze:
    20 June 2024


  • Come si legge la scheda tecnica di un modello LLM
    Meta ha rilasciato due versioni di Llama 3: una da 8 miliardi di parametri e una da 70 miliardi di parametri Llama 3 è stato preaddestrato su 15 trilioni di token di dati, un set di dati 7 volte più grande rispetto a quello utilizzato per Llama 2. Il set...
    19 April 2024


  • Punteggi Elo per la valutazione degli LLM
    Il punteggio Elo è un metodo matematico per calcolare il livello relativo di abilità dei giocatori in giochi competitivi come scacchi, go, videogiochi e sport come il calcio e il basket. Ideato da Arpad Elo, un professore di fisica e maestro di scacchi di origine ungherese, questo sistema è stato...
    15 April 2024


  • Evaluation of the Summarization Task for LLM: The Good, The Bad, and The Ugly
    In this article we discuss the various metrics for evaluating a summarization task. In particular, we will fine-tune the tools for measuring the results of the summarization of Mistral 7b, the article will overview the various metrics for a single summarization example from the dataset labeled CNN/News.
    22 March 2024


  • Valutazione del Task di Summarization per un Modello AI/LLM: il Buono, il Brutto ed il Cattivo
    In questo articolo discutiamo le varie metriche per la valutazione di un task di summarization. In particolare metteremo a punto gli strumenti per misurare i risultati della summarization di Mistral 7b, l’articolo farà una panoramica delle varie metriche per un singolo esempio di summarization tratto dal dataset etichettato CNN/News.
    22 March 2024


  • BitNet b1.58: una variante di Large Language Models (LLM) a 1 bit
    Un nuovo articolo introduce BitNet b1.58, una variante di Large Language Models (LLM) a 1 bit, dove ogni parametro assume valori ternari {-1, 0, 1}, quindi non esattamente 1-bit ma 1.58bit equivalenti per la precisione, raggiungendo prestazioni pari ai modelli full-precision (FP16 o BF16) ma con maggiore efficienza in termini...
    03 March 2024


  • I Computer del Futuro non si programmano, si addestrano
    Il CEO di NVidia, Jensen Huang, ha dichiarato recentemente “No Need For Coding” e che i ragazzi di oggi non hanno bisogno di imparare a programmare, perché i progressi della AI permetteranno a tutti di risolvere i problemi usando il linguaggio naturale.
    27 February 2024


  • Summarization with Llamaindex and a Local Model
    The summarizations examples in Llamaindex website are always based on the OpenAI connection. In this short article we will show how to setup a local model and pass it to the summarization task.
    10 February 2024


  • Come valutare un Modello di Linguaggio: Benchmark e Metriche più comuni
    Se non puoi misurarlo non lo puoi migliorare (Lord Kelvin)
    02 February 2024


  • Esperimenti con LLM e RAG: Modello in Locale con Mistral e Ollama
    Seconda parte del nostro percorso di esplorazione con i modelli di linguaggio LLM e il RAG con una nuova versione di R-Massimo, questa volta senza OpenAI.
    13 January 2024


  • Come misurare la qualità del RAG nei modelli LLM
    Si fa presto a dire RAG, ma poi come misuriamo l'efficacia della nostra pipeline RAG. Cominciamo a metterci qualche dubbio e a trovare qualche risposta.
    12 January 2024


  • Mixtral: Un Nuovo Modello di Linguaggio Basato sul Mix di Blocchi Feed-Forward
    Come modello Sparse Mixture of Experts (SMoE), Mixtral impiega un meccanismo di instradamento dinamico, attivando diverse parti del modello in base all'input e riuscendo così a ottenere ottime prestazioni con un minor impegno di risorse
    09 January 2024


  • FERRET: Dalla Apple Un Nuovo Modello di Linguaggio Multimodale Avanzato
    FERRET è un innovativo Modello di Linguaggio Multimodale (MLLM) che eccelle nel comprendere e localizzare riferimenti spaziali nelle immagini
    28 December 2023


  • Esperimenti con LLM e RAG: LLamaIndex e openAI
    Ci siamo posti l'obiettivo di capire e sperimentare qualche alternativa che ci permettesse di far funzionare la nostra AI senza dover necessariamente basarci sull'infrastruttura di OpenAI
    28 December 2023


  • Nuovo paper Apple: LLM in a Flash. Modelli di linguaggio su dispositivi mobili
    Il documento, “LLM in a Flash: Efficient Large Language Model Inference with Limited Memory,” si concentra sulle sfide e sulle soluzioni per l’esecuzione di grandi modelli di linguaggio (LLM) su dispositivi con capacità limitata di DRAM.
    22 December 2023


  • Large Language Models (LLM): pre-training, fine-tuning o prompt engineering
    Il costo di training per i modelli LLM si misura in petaflop/s day (PFSD) che poi significa 86400e15 operazioni FLOP. Per fare 1 PFSD ci vogliono 8 Nvidia v100s, oppure 2 Nvidia A100 che si trovano su Amazon a circa $8000 l’una.
    19 December 2023


  • Dalle Reti Neurali Ricorrenti (RNN) ai Transformer: La Svolta
    All you need is love … ma non per l’AI. Piuttosto “Attention Is All You Need” è il seminal paper del 2017 da cui inizia la svolta. Si definisce una nuova architettura di #naturallanguageprocessing basata sul concetto di “attenzione” che scala meglio delle precedenti soluzioni.
    07 November 2023


LLAMABOX

  • LLAMABOX
  • team@smartcontract.tips
  • ddbit
  • digitaldavide

Viaggio nel mondo dell'addestramento dei modelli di intelligenza artificiale