AI

Ollama-Enshittification – die frühen Anzeichen

Ollama-Enshittification – die frühen Anzeichen

Meine Sicht auf den aktuellen Stand der Ollama-Entwicklung

Ollama hat sich schnell zu einem der beliebtesten Tools zur lokalen Ausführung von LLMs entwickelt. Seine einfache CLI und die nahtlose Modellverwaltung haben es zu einer bevorzugten Option für Entwickler gemacht, die mit AI-Modellen außerhalb der Cloud arbeiten möchten.

Chat-Oberflächen für lokale Ollama-Instanzen

Chat-Oberflächen für lokale Ollama-Instanzen

Schneller Überblick über die wichtigsten UIs für Ollama im Jahr 2025

Locally gehostete Ollama ermöglicht es, große Sprachmodelle auf Ihrem eigenen Gerät auszuführen, aber die Verwendung über die Befehlszeile ist nicht benutzerfreundlich. Hier sind mehrere Open-Source-Projekte, die ChatGPT-ähnliche Schnittstellen bereitstellen, die mit einer lokalen Ollama verbunden sind.

Objekterkennung mit TensorFlow

Objekterkennung mit TensorFlow

Vor einiger Zeit habe ich eine Objekterkennungs-KI trainiert

An einem kalten Wintertag im Juli… das ist in Australien… verspürte ich ein dringendes Bedürfnis, ein KI-Modell zum Erkennen von unverkapselten Stahlbewehrungsstäben zu trainieren…

Suche vs. Deep Search vs. Deep Research im Jahr 2026

Suche vs. Deep Search vs. Deep Research im Jahr 2026

Welcher KI-Forschungsmodus passt zu Ihrer Aufgabe?

  • Suche ist ideal für die schnelle und direkte Informationsbeschaffung mit Hilfe von Stichwörtern.
  • Deep Search überzeugt durch das Verständnis von Kontext und Absicht und liefert für komplexe Anfragen relevantere und umfassendere Ergebnisse.
Cloud-LLM-Anbieter

Cloud-LLM-Anbieter

Kurze Liste von LLM-Anbietern

Die Verwendung von LLMs ist nicht sehr teuer, es könnte kein Bedarf bestehen, neue, unglaublich leistungsstarke GPUs zu kaufen.
Hier ist eine Liste der LLM-Anbieter in der Cloud mit den LLMs, die sie hosten.