Decoded©

  • Data Source: Definition und Details zu ihrer Funktionsweise

    Fake news! Seit einigen Jahren ist dieser Begriff in Mode. Der Grund dafür ist die Verlässlichkeit von Informationen. Genau hier liegt die Bedeutung der Datenquellen. Während sich dies in der Welt des Journalismus auf den Ursprung der Informationen bezieht, sind Datenquellen in der Welt der Datenexpertise Speicherorte, die eine große Menge an Informationen bündeln. Was ist also eine Data Source oder Datenquelle? Wozu dient sie? Wie funktioniert sie? Die Antworten findest du hier.

    Weiterlesen
  • Cloud Data Engineer: Kompetenzen, Gehalt, Ausbildung

    Der Cloud Data Engineer wird in Unternehmen immer häufiger gesucht. Hier erfährst du alles, was du über diesen Beruf wissen musst, der Cloud Computing und Data Engineering miteinander verbindet: Vorstellung, Gehalt und Stellenangebote, Ausbildung…

    Weiterlesen
  • Fine Tuning vs. Prompt Engineering – Zwei Techniken zur Optimierung der KI

    Fine Tuning vs. Prompt Engineering: GPT-4, PaLM 2, BARD… die Fortschritte im Bereich der künstlichen Intelligenz werden immer zahlreicher. Und vor allem werden sie für jeden zugänglich.

    Weiterlesen
  • Underfitting in Machine Learning: So löst Du es

    Die Definition des richtigen Modells ist entscheidend, um mit Machine Learning aussagekräftige Vorhersagen zu treffen. Aber eine schlechte Anpassung der Lerndaten kann die Leistung der Vorhersageanalyse beeinträchtigen. Genau das passiert beim Underfitting. Worum handelt es sich also? Und wie kann man es vermeiden? Die Antworten findest du hier.

    Weiterlesen
  • Anthropic – Künstliche Intelligenz neu gedacht: Ethik im Mittelpunkt

    Gegründet von ehemaligen Führungskräften von OpenAI und stark unterstützt von Amazon, hat Anthropic die KI namens Claude geschaffen. Diese möchte sich in Bereichen, in denen man es nicht unbedingt erwartet hätte, von ChatGPT oder Gemini unterscheiden.

    Weiterlesen
  • Dtype Python: Erstelle strukturierte Tabellen

    Egal, ob es sich um ein IT-Projekt, eine Personal- oder Geschäftsdatei handelt, eine Tabelle hat selten nur einen einzigen Datentyp. Oft werden numerische und textuelle Daten miteinander vermischt, um mehr Kontext zu schaffen. Genau aus diesem Grund sind Dtype auf Python so nützlich.

    Weiterlesen
  • Apache Flink : Definition, Struktur und Grenzen des Frameworks

    Apache Flink wurde ursprünglich an der Technischen Universität Berlin entwickelt. Die ersten Versionen wurden 2011 veröffentlicht und sollten komplexe Probleme bei der Verarbeitung von Daten in einer verteilten Echtzeitumgebung lösen. Flink wurde im Laufe der Jahre zu einer Referenz für eine Vielzahl von Unternehmen, bis es schließlich zu einem der beliebtesten Open-Source-Frameworks wurde. Es war im Jahr 2014, als Flink als Apache Incubator-Projekt akzeptiert wurde, und 2015 wurde es zu einem Apache Top-Level-Projekt. Seitdem hat sich Flink stetig verbessert und ist stolz auf seine aktive Entwickler- und Nutzergemeinschaft.

    Weiterlesen
  • ONNX: Der offene Standard für portable KI-Modelle

    Mit wachsender Komplexität der KI-Projekte gewinnt die Fähigkeit an Bedeutung, Modelle flexibel zu übertragen und in verschiedenen Umgebungen auszuführen. Das heutige Ökosystem umfasst zahlreiche Entwicklungsframeworks – jedes mit eigenen Besonderheiten und proprietären Formaten. ONNX (Open Neural Network Exchange) schafft hier Abhilfe: Als quelloffener Standard erleichtert es die Interoperabilität und verbindet die unterschiedlichen Systeme reibungslos.

    Weiterlesen
  • Mixture of Experts (MoE): Der revolutionäre KI-Ansatz, der die Zukunft prägt

    Künstliche Intelligenz entwickelt sich rasend schnell, und groß angelegte Modelle wie ChatGPT oder Gemini erfordern leistungsstarke Infrastrukturen, um Milliarden von Parametern zu verarbeiten. Angesichts dieses enormen Bedarfs an Rechenleistung ist ein innovativer Ansatz erforderlich: das Mixture of Experts (MoE). Dieses Modell teilt die Aufgaben unter mehreren spezialisierten Experten auf und ermöglicht so die Optimierung der Rechenleistung und die Verbesserung der Leistung. In diesem Artikel werden wir die Funktionsweise des MoE, seine Vorteile, konkreten Anwendungen und Herausforderungen erforschen.

    Weiterlesen
  • Lead Data Scientist: Alles, was Du wissen solltest

    Wenn Du nach Informationen über die Stelle des Lead Data Scientist suchst, wird Dir dieser Artikel eine große Hilfe sein. Dieser stellt nämlich die wichtigsten Funktionen, Aufgaben und Verantwortlichkeiten vor, die den Kern der täglichen Arbeit der meisten leitenden Wissenschaftler ausmachen.

    Weiterlesen
  • Manifold Learning: eine Schlüsseltechnik zur Reduzierung der Datengröße

    Manifold Learning ist eine Technik, die die Visualisierung und Analyse komplexer, hochdimensionaler Datensätze vereinfacht, indem sie zugrunde liegende, niedrigdimensionale Strukturen in ihnen findet. Hier erfährst du alles, was du über diese unverzichtbare Methode des Machine Learning wissen musst!

    Weiterlesen
  • Data Strategist: Alles über diesen Datenberuf

    Der Data Strategist ist ein Fachmann, der für die Entwicklung einer datenbasierten Strategie in einem Unternehmen verantwortlich ist. Hier erfährst du alles, was du über diese schnell wachsende Rolle wissen musst!

    Weiterlesen