AI

Objekterkennung mit TensorFlow

Objekterkennung mit TensorFlow

Vor einiger Zeit habe ich eine Objekterkennungs-KI trainiert

An einem kalten Wintertag im Juli… das ist in Australien… verspürte ich ein dringendes Bedürfnis, ein KI-Modell zum Erkennen von unverkapselten Stahlbewehrungsstäben zu trainieren…

Vergleich der Qualität der Hugo-Seitentranslation – LLMs auf Ollama

Vergleich der Qualität der Hugo-Seitentranslation – LLMs auf Ollama

qwen3 8b, 14b und 30b, devstral 24b, mistral small 24b

In diesem Test vergleiche ich, wie verschiedene LLMs, die auf Ollama gehostet werden, Hugo-Seiten von Englisch ins Deutsche übersetzen: Vergleich, wie verschiedene LLMs, die auf Ollama gehostet werden, Hugo-Seiten übersetzen. Drei Seiten, die ich getestet habe, befassen sich mit unterschiedlichen Themen und enthalten einige schöne Markdown-Elemente mit Struktur: Überschriften, Listen, Tabellen, Links usw.

Vibe Coding – Bedeutung und Beschreibung

Vibe Coding – Bedeutung und Beschreibung

Was ist diese trendige, von KI unterstützte Programmierung?

Vibe coding ist ein AI-getriebener Programmieransatz, bei dem Entwickler die gewünschte Funktionalität in natürlicher Sprache beschreiben, wodurch AI-Tools den Code automatisch generieren.

Testen von Deepseek-R1 mit Ollama

Testen von Deepseek-R1 mit Ollama

Vergleich zweier deepseek-r1-Modelle mit zwei Basismodellen

DeepSeek’s erste Generation von Schlussfolgerungsmodellen mit Leistung, die vergleichbar mit OpenAI-o1 ist, einschließlich sechs dichter Modelle, die aus DeepSeek-R1 basierend auf Llama und Qwen destilliert wurden.

Selbsthosting von Perplexica – mit Ollama

Selbsthosting von Perplexica – mit Ollama

Einen Copilot-ähnlichen Dienst lokal ausführen? Einfach!

Das ist sehr aufregend! Statt Copilot oder perplexity.ai zu rufen und der ganzen Welt zu erzählen, wonach Sie suchen, können Sie nun einen ähnlichen Dienst auf Ihrem eigenen PC oder Laptop hosten!

Gemma2 vs. Qwen2 vs. Mistral Nemo vs...

Gemma2 vs. Qwen2 vs. Mistral Nemo vs...

Testen der Erkennung logischer Fehlschlüsse

Kürzlich haben wir mehrere neue LLMs gesehen, die veröffentlicht wurden. Aufregende Zeiten. Lassen Sie uns testen und sehen, wie sie sich bei der Erkennung logischer Fehlschlüsse schlagen.

LLM-Frontends

LLM-Frontends

Nicht so viele zur Auswahl, aber dennoch...

Als ich begann, mit LLMs zu experimentieren, waren die Benutzeroberflächen für sie noch in aktiver Entwicklung, und heute sind einige von ihnen wirklich gut.