JFrog und AWS optimieren die sichere Entwicklung von Machine Learning

Integration

JFrog Ltd. (“JFrog”) (Nasdaq: FROG), das Unternehmen für Liquid Software und Entwickler der JFrog Software-Lieferkettenplattform integriert Amazon SageMaker. Damit können Unternehmen Modelle für maschinelles Lernen (ML) für jeden Anwendungsfall mit einer vollständig verwalteten Infrastruktur, Tools und Workflows erstellen, trainieren und bereitstellen. Durch die Zusammenführung von JFrog Artifactory mit Amazon SageMaker können ML-Modelle zusammen mit allen anderen Komponenten der Softwareentwicklung in einem modernen DevSecOps-Workflow bereitgestellt werden. Dadurch wird jedes Modell unabänderlich, nachvollziehbar, sicher und validiert, bevor es veröffentlicht wird. JFrog hat außerdem neue Funktionen für die ML-Modellverwaltung vorgestellt, mit denen gewährleistet werden kann, dass Compliance und Sicherheit in jedem Schritt der ML-Modellentwicklung berücksichtigt werden.

„Immer mehr Unternehmen fangen an, Big Data in der Cloud zu verwalten. Daher fragen sich Führungskräfte von DevOps-Teams zunehmend, wie sie Data-Science- und ML-Funktionen skalieren können, um die Softwarebereitstellung zu beschleunigen, ohne Risiken und Komplikationen zu verursachen”, sagt Kelly Hartman, Senior Vice President of Global Channels and Alliances bei JFrog . „Die Kombination von Artifactory und Amazon SageMaker schafft eine “Single-Source-of-Truth” (eine einzige Quelle der Wahrheit), die DevSecOps-Best-Practices für die Entwicklung von ML-Modellen in der Cloud einführt – und damit nicht nur für Flexibilität, Geschwindigkeit, Sicherheit und ein ruhiges Gewissen sorgt, sondern auch neue Spielräume für MLSecOps eröffnet.“

Nach einer aktuellen Forrester-Umfrage nannten 50 Prozent der Entscheidungsträger im Bereich Daten die Anwendung von Governance-Richtlinien innerhalb von KI/ML als die größte Herausforderung für eine breite Nutzung. 45 Prozent nannten die Daten- und Modellsicherheit als ausschlaggebenden Faktor. Die Amazon SageMaker-Integration von JFrog wendet DevSecOps-Best-Practices auf die Verwaltung von ML-Modellen an. So können Developer und Data Scientists die Entwicklung von ML-Projekten unter Einhaltung von Unternehmensstandards, Sicherheit sowie gesetzlichen und organisatorischen Compliance-Anforderungen erweitern, beschleunigen und absichern.

Die neue Amazon SageMaker-Integration von JFrog ermöglicht Unternehmen:

  • die Aufrechterhaltung einer Single-Source-of-Truth für Data Scientists und Entwickler, um sicherzustellen, dass alle Modelle leicht zugänglich, nachvollziehbar und manipulationssicher sind.
  • ML näher an die Workflows des Softwareentwicklungs- und Produktionslebenszyklus heranzubringen, um Modelle vor Löschung oder Änderung zu schützen.
  • die Entwicklung, Schulung, Sicherung und Bereitstellung von ML-Modellen.
  • das Erkennen und Blockieren der Verwendung bösartiger ML-Modelle im gesamten Unternehmen.
  • ML-Modell-Lizenzen zu überprüfen, um die Einhaltung von Unternehmensrichtlinien und gesetzlichen Vorschriften zu gewährleisten.
  • eigene oder intern erweiterte ML-Modelle mit robusten Zugriffskontrollen und Versionshistorie für mehr Transparenz zu speichern.
  • ML-Modelle als Teil jeder Softwareversion zu bündeln und zu verteilen.

„Traditionelle Softwareentwicklungsprozesse und maschinelles Lernen sind voneinander getrennt, da es an der Integration mit bestehenden Tools mangelt”, sagt Larry Carvalho, Gründer und Geschäftsführer von RobustCloud. „Gemeinsam bieten JFrog Artifactory und Amazon SageMaker eine integrierte, kontrollierte End-to-End-Umgebung für maschinelles Lernen. Die Zusammenführung dieser Welten stellt einen bedeutenden Fortschritt dar, um Pipelines für maschinelles Lernen mit etablierten Softwareentwicklungslebenszyklen und Best Practices in Einklang zu bringen.”