In dieser besonderen Folge reden Florian und Ich in person und interviewen ChatGPT. Wir reden über neue Open source Modelle und Gemini 2.5 Pro, das neue Top Model von Google.
In dieser Episode reden Florian und Ich über bald erscheinende Modelle, unsere Erwartungen und Benchmarks. Außerdem reden wir über die Bundestagswahl und und die Entwicklungen in der amerikanischen Politik.
In dieser Episode reden Florian und Ich über das neue Model o1 und was es besonders macht. Außerdem reden wir über den Hardwaremarkt, Alpha Proteo und die US Politik.
Episode 52: Jubiläums Folge! Ein Jahr Words of The Future
/
RSS Feed
Share
Link
Embed
Words of the Future wird ein Jahr alt! Florian und Ich schauen zurück auf das Jahr und machen Vorhersagen für das Nächste. Das ist auch die letzte Folge die im wöchentlichen Format kommt. Ab jetzt beginnt Staffel 2 und das bedeutet unregelmäßigere Folgen (etwa ein mal pro Monat), aber dafür längere Folgen und nur noch absolute Highlights und spannende Themen mit hoffentlich mehr Gästen.
Episode 46: 1-Bit LLMs, Stable Diffusion 3, und Mistral Modelle
/
RSS Feed
Share
Link
Embed
In dieser Folge reden Florian und Max über den Klarna Assistenten, Stable Diffusion 3 und die neuen Mistral Modelle. Sorry für die Verspätung der Folge.
Google Deepmind just released their new Gemini models. They come in 3 sizes. Nano will be used on devices like the Pixel phones, and Pro will be used in their products such as Bard, and Ultra is going to be released at the beginning of next year. The models are multimodal and can input, audio, video, text, images, and code.
It outperforms current state-of-the-art models not only in text-based tasks but also in other modalities.
Test the Pro version now in Bard and read more about the model here and here.
LLMs are powerful tools, but they often struggle with tasks that require logical and algorithmic reasoning, such as arithmetic. A team of researchers from Google has developed a new technique to teach LLMs how to perform arithmetic operations by using in-context learning and algorithmic prompting. Algorithmic prompting means that the model is given detailed explanations of each step of the algorithm, such as addition or multiplication. The researchers showed that this technique can improve the performance of LLMs on arithmetic problems that are much harder than those seen in the examples. They also demonstrated that LLMs can use algorithmic reasoning to solve complex word problems by interacting with other models that have different skills. This work suggests that LLMs can learn algorithmic reasoning as a skill and apply it to various tasks.
Results from the paper comparing their approach vs. other prompting techniques.
Meta recently released their new Llama models. The new models come in sizes from 7 to 70 billion parameters and are released as base models and chat models, which are fine-tuned with two separate reward models for safety and helpfulness. While the models are only a small improvement over the old Llama models, the most important change is the license which now allows commercial use.