{"id":192289,"date":"2024-02-02T18:49:12","date_gmt":"2024-02-02T17:49:12","guid":{"rendered":"https:\/\/liora.io\/de\/?p=192289"},"modified":"2026-02-06T06:02:03","modified_gmt":"2026-02-06T05:02:03","slug":"meta-konkurriert-mit-openai-und-gpt-4-auf-augenhoehe","status":"publish","type":"post","link":"https:\/\/liora.io\/de\/meta-konkurriert-mit-openai-und-gpt-4-auf-augenhoehe","title":{"rendered":"Meta konkurriert mit OpenAI und GPT-4 auf Augenh\u00f6he"},"content":{"rendered":"<p><strong>Meta hat k\u00fcrzlich Code Llama-70B, eine erweiterte Version seines Sprachmodells f\u00fcr die Softwareentwicklung, ver\u00f6ffentlicht. Mit einer Leistung, die der von GPT-4 entspricht oder diese sogar \u00fcbertrifft, tritt dieses Open-Source-Modell gegen das marktbeherrschende Modell an.<\/strong><\/p>\t\t\n\t\t\t<h3>Code Llama-70B eine erweiterte Version?<\/h3>\t\t\n\t\t<p><a href=\"https:\/\/liora.io\/de\/meta-enthuellt-llama-2-aber-diesmal-als-open-source-warum-ist-das-wichtig\">Im Sp\u00e4tsommer 2023 k\u00fcndigte Meta Code Llama<\/a> an, eine LLM, die auf Softwareentwicklung ausgerichtet ist. Jetzt gibt es Code Llama in vier Versionen: 7, 13, 34 und jetzt 70 Milliarden Parameter.<\/p><p>Die ersten drei Modelle von Code Llama werden von 500 Milliarden Token angetrieben und sind nach wie vor leistungsf\u00e4hige, schnelle Tools, die eher f\u00fcr kleine Konfigurationen geeignet sind. 7B kann auf einem einzigen Grafikprozessor laufen. 70B wiederum wurde mit 1 Billion Token trainiert und wird von Meta als perfekter Assistent f\u00fcr die Entwicklung angepriesen.<\/p><p>Neben der Vollendung von 70B hebt Meta auch zwei Versionen von Code Llama hervor: <strong>Code Llama Python und Code Llama Instruct,<\/strong> in allen m\u00f6glichen Versionen (7, 13, 34 und 70). Alle diese Modelle sind von Llama 2 abgeleitet und werden bei Hugging Face gehostet.<\/p>\t\t\n\t\t\t\t\t\t\t\t\t\t\t\t<figure>\n\t\t\t\t\t\t\t\t\t\t<img decoding=\"async\" src=\"https:\/\/liora.io\/app\/uploads\/2024\/01\/422371016_407978498286607_4696551346233862918_n.png\" title=\"\" alt=\"\" loading=\"lazy\">\t\t\t\t\t\t\t\t\t\t\t<figcaption><\/figcaption>\n\t\t\t\t\t\t\t\t\t\t<\/figure>\n\t\t\t\n<div class=\"wp-block-buttons is-layout-flex wp-block-buttons-is-layout-flex is-content-justification-center\"><div class=\"wp-block-button \"><a class=\"wp-block-button__link wp-element-button \" href=\"https:\/\/liora.io\/de\/unsere-aus-und-weiterbildungen\">Lernen, wie man LLMs benutzt<\/a><\/div><\/div>\n\n\t\t\t<h3>Was sind die Vorteile von Code Llama Python und Instruct?\n<\/h3>\t\t\n\t\t<p><strong>Code Llama Python,<\/strong> ist f\u00fcr eine Vielzahl von Programmieraufgaben optimiert, darunter <a href=\"https:\/\/liora.io\/de\/beautiful-soup-einfuehrung-in-web-scraping-mit-python\">Web Scraping<\/a>, Datenanalyse und Webentwicklung. Seine Vielseitigkeit und Leistung machen ihn zu einem wertvollen Werkzeug im Bereich der Code-Generierung.<\/p><p><strong>Code Llama Instruct<\/strong> kann viele Aufgaben und Manipulationen in nat\u00fcrlicher Sprache durchf\u00fchren. Sie kann Daten filtern, durchsuchen, sortieren und manipulieren sowie bin\u00e4re und faktorielle Suche durchf\u00fchren.<\/p>\t\t\n\t\t\t\t\t\t\t\t\t\t\t\t<figure>\n\t\t\t\t\t\t\t\t\t\t<img decoding=\"async\" src=\"https:\/\/liora.io\/app\/uploads\/2024\/01\/DALL\u00b7E-2024-01-31-15.27.06-Create-a-split-graphic-illustration-with-two-different-versions-of-the-same-llama-one-as-a-data-analyst-and-the-other-as-a-Python-developer.-On-one-s.png\" title=\"\" alt=\"\" loading=\"lazy\">\t\t\t\t\t\t\t\t\t\t\t<figcaption><\/figcaption>\n\t\t\t\t\t\t\t\t\t\t<\/figure>\n\t\t\t<h3>Code Llama-70B st\u00e4rker als GPT-4?<\/h3>\t\t\n\t\t<p>Als Argument f\u00fchrt Meta an, dass sie ihr neues Modell mit HumanEval und <strong>Mostly Basic Python Programming (MBPP)<\/strong> testen lie\u00df. HumanEval testet die F\u00e4higkeiten der Vorlage, einen Code zu vervollst\u00e4ndigen, und MBPP bewertet die F\u00e4higkeiten der Vorlage, auf der Grundlage einer Beschreibung Code zu schreiben.<\/p><p>Instruct 70B erreichte 67,8 % bei HumanEval und 67 % bei GPT-4. Python 70B \u00fcbertraf den bisherigen Rekord von 62,4 % von Llama 70B und erreichte 65,6 %. Diese neuen Rekorde machen Llama zur st\u00e4rksten Open-Source-LLM auf dem Markt.<\/p>\t\t\n\t\t\t\t\t\t\t\t\t\t\t\t<figure>\n\t\t\t\t\t\t\t\t\t\t<img decoding=\"async\" src=\"https:\/\/liora.io\/app\/uploads\/2024\/01\/422554813_2009913702712867_3187269214893717726_n.png\" title=\"\" alt=\"\" loading=\"lazy\">\t\t\t\t\t\t\t\t\t\t\t<figcaption><\/figcaption>\n\t\t\t\t\t\t\t\t\t\t<\/figure>\n\t\t<p>Wenn dir dieser Artikel gefallen hat und du \u00fcber eine Karriere in der Data Science nachdenkst oder einfach nur deine F\u00e4higkeiten in deinem Bereich erweitern m\u00f6chtest, dann z\u00f6gere nicht, unsere Ausbildungsangebote oder Blogartikel auf Liora zu entdecken.<\/p><p>Quelle: <a href=\"\/\">ai.meta.com<\/a><\/p>\t\t\n\t\t\t\n<div class=\"wp-block-buttons is-layout-flex wp-block-buttons-is-layout-flex is-content-justification-center\"><div class=\"wp-block-button \"><a class=\"wp-block-button__link wp-element-button \" href=\"https:\/\/liora.io\/de\/unsere-aus-und-weiterbildungen\">Entdecke unsere Fortbildung in k\u00fcnstlicher Intelligenz<\/a><\/div><\/div>\n","protected":false},"excerpt":{"rendered":"<p>Meta hat k\u00fcrzlich Code Llama-70B, eine erweiterte Version seines Sprachmodells f\u00fcr die Softwareentwicklung, ver\u00f6ffentlicht. Mit einer Leistung, die der von GPT-4 entspricht oder diese sogar \u00fcbertrifft, tritt dieses Open-Source-Modell gegen das marktbeherrschende Modell an. Code Llama-70B eine erweiterte Version? Im Sp\u00e4tsommer 2023 k\u00fcndigte Meta Code Llama an, eine LLM, die auf Softwareentwicklung ausgerichtet ist. Jetzt [&hellip;]<\/p>\n","protected":false},"author":76,"featured_media":192291,"comment_status":"open","ping_status":"open","sticky":false,"template":"elementor_theme","format":"standard","meta":{"_acf_changed":false,"editor_notices":[],"footnotes":""},"categories":[2472],"class_list":["post-192289","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-data-ki"],"acf":[],"_links":{"self":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts\/192289","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/users\/76"}],"replies":[{"embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/comments?post=192289"}],"version-history":[{"count":1,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts\/192289\/revisions"}],"predecessor-version":[{"id":216982,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts\/192289\/revisions\/216982"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/media\/192291"}],"wp:attachment":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/media?parent=192289"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/categories?post=192289"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}