Diese Webseite verwendet Cookies. Mehr Infos

Suchmaschinenoptimierung
mit Content-Marketing - Ihre News
Agile IT Management GmbH |

Pressemitteilung

Bewerten Sie hier diesen Artikel:
0 Bewertungen (Durchschnitt: 0)


Im Folgenden finden Sie die Pressemitteilung zum Thema „Künstliche Intelligenz: Trends & Einflussfaktoren“ im Rahmen des Abschlusses eines dreiteiligen Fachartikels. Hier finden Sie unser Presse Media Kit mit ggfs. benötigten Grafiken/Logos. 



Künstliche Intelligenz: Trends & Faktoren in 2019 – Teil III des Fachartikels


 


Hannover, 03.07.2019. Künstliche Intelligenz (KI) und sein Teilgebiet Machine Learning (ML) durchdringen vehement alle Lebens- und Arbeitsbereiche. Nach den Themen des ersten (1. bis 3.) und zweiten Teils (4. bis 6.) des Fachartikels, spürt KI Experte Arvin Arora nun in diesem dritten Teil weiter den aus seiner Sicht wesentlichen KI Trends und Einflussfaktoren (7. bis 9.) nach. 


 


Eine Übersicht der KI Trends und Einflussfaktoren


 


1.     KI Forschung & Innovation…


2.     …versa Praxistauglichkeit


3.     Budgets im Aufwind


4.     KI/ML Spezialisten


5.     Daten sind das neue Öl


6.     Industrialisierung – Machine Learning DevOps


7.     Architekturen, Open Source und Ökosystem


8.     KI/ML Infrastruktur


9.     Ergonomie, Transparenz, Erklärbarkeit


 


Faktor 7: Architekturen, Open Source und Ökosystem   


                                                         


 


KI/ML Anwendungen können vollständig mit leistungsfähiger Open Source Software realisiert werden. Auch die großen Digitalkonzerne und Initiativen wie Open AI stellen ihre Werkzeuge zumindest teilweise offen zur Verfügung.


 


 


 


 


 


 


 


 


 


 


 


 


 


Die Herausforderung wird auf Sicht eher darin liegen, einen aktuellen Überblick zu behalten und für die eigenen Anforderungen die besten Werkzeuge zu evaluieren. Als hilfreich werden sich hoffentlich Austauschformate für Modelle erweisen (z.B. ONNX), wobei dies bei sehr spezifischen und optimierten Implementierungen seine Grenzen findet.


 


Nach wie vor finden sich KI/ML und verwandte Frameworks – gemessen an Weiterentwicklung und Größe der Community – schwerpunktmäßig in der Python Welt. Im Bereich Big Data und Stream Processing bewegen sich die entsprechenden Apache Open Source Projekte (z.B. Spark, Flink, Kafka, Cassandra) in der Java/Scala Welt. (Quelle: Comparison of top data science libraries for Python, R and Scala)


 


Wir sehen derzeit die dringendste Aufgabe darin, diese Hemispheren möglichst nahtlos und unter Nutzung ihrer jeweiligen Stärken miteinander zu integrieren – zum Beispiel für die (nahe) Echtzeit Verarbeitung großer Datenmengen und die Parallelisierung von Optimierung / Training sowie Vorhersagen auf Basis unterschiedlicher Modellklassen. „Nebenbei“ erfordert dies auch eine entsprechende Weiterbildung der Data Science Teams.


 


Faktor 8: Bessere und spezielle KI / ML Infrastruktur 


 


– „…since 2012, the total amount of compute used in the largest AI training runs […] has grown by more than 300.000x…” (Quelle: AI and Compute, Open AI, 05/2018)


 


 


Durch massiv wachsende, integrierte und automatisierte „Machine Learning as a Service“ Angebote erleichtern die großen Cloud Anbieter (Amazon, Google, Microsoft, IBM) die Realisierung von Anwendungen (mehr Details hier: MLaaS). Dabei können sowohl fertige Plug-and-Play Services genutzt als auch individuelle Konfigurationen nach Bedarf (siehe ML DevOps) schnell herauf- und heruntergefahren werden.


 



 


 


 


 


 


 


 


 


 


 


 


 


 


 


Gerade in Proof of Concept- oder Pilot-Phasen vermeidet dies langes Warten auf interne Infrastruktur, sofern Vorbehalte und rechtliche Bedenken nicht im Wege stehen. Hohe Automation, Controlling und kluge Taktiken helfen dabei, die Kosten nicht ausarten zu lassen, was leicht passiert, wenn ein Data Science Team erst einmal skalierbare Ressourcen zur Verfügung hat. Bei einer entsprechend hohen Anzahl von Projekten oder sehr trainingsintensiven Anwendungen kann eine dedizierte Machine Learning Infrastruktur oder ein hybrider Ansatz die bessere Variante darstellen.


 


Parallel nimmt das Rennen um bessere KI/ML Hardware immer mehr an Fahrt auf. Nachdem bisher in der breiten Masse immer noch CPUs und GPUs die Arbeitspferde der Wahl sind, scheinen FPGAs, ASICs (z.B. Googles TPUs) am Bedeutung zu gewinnen (Machine Learning Shifts More Work To FPGAs, SoCs). An der vordersten Innovationsfront hat zumindest die Medienpräsenz von Neuromorphen und Quanten Computern zugenommen und es sind erste nutzbare Prototyping Plattformen entstanden (18 Most Interesting Facts About Quantum Computers | 2019 Edition).


 


Faktor 9: Ergonomie, Transparenz, Erklärbarkeit


 


 


Die Schaffung von Akzeptanz für Vorhersagen und Empfehlungen von KI/ML Modellen ist kein neues Thema, hat aber durch die Ausweitung der Anwendungen, insbesondere in sensiblere Bereiche wie medizinische Diagnostik, autonomes Fahren oder industrielle Steuerung an Bedeutung gewonnen.


 


 


 


 


 


 


 


 


 


 


 


Verbindung zu aktuellen Forschungsthemen: „Explainable AI“ oder auch „Transparent AI“ werden daher ebenso zu den zentralen Themen gehören, wobei es verschiedenste Lösungsansätze von der einfachen Ermittlung der Wichtigkeit von Features für Modelle, für einzelne Vorhersagen bis zur Verknüpfung neuronaler und (ggf. leichter interpretierbarer) symbolischer KI gibt. (Diverse Quellen: 123)


 


 


Expertenprofil von Arvin Arora


 


KI-Experte, Speaker und Trainer Arvin Arora ist seit 25 Jahren in der IT-Branche tätig und blickt auf umfangreiche Erfahrungen zurück. Seine Expertise umschließt dabei die Bereiche Artificial Intelligence, Data Science/Machine Learning, Industrieprozesse sowie agile Softwareentwicklung.


 


Im Besonderen setzt er sich mit der Anwendung und Übertragung innovativer Machine Learning Modelle und Verfahren aus der Forschung in die industrielle Praxis auseinander. Als Mitbegründer und derzeitiger Geschäftsführer der AIM und inserve GmbH fallen vielfältige Aufgaben in seinen Verantwortungsbereich. Zu diesen zählen der Aufbau von Data Science Teams und die Realisierung von Lösungen.


AIM – Agile IT Management GmbH


Agile IT Management GmbH (AIM) wurde im Jahr 2016 in Hannover gegründet und unterstützt seitdem Unternehmen bei der Steigerung der Lern- und Anpassungsfähigkeit ihrer Teams (Agile, DevOps) und ihrer Systeme (Artificial Intelligence/Machine Learning). Das Ziel ist wachsende Komplexität und Geschwindigkeit zu meistern, die Wettbewerbsfähigkeit zu steigern und die beteiligten Menschen zu entlasten. AIM unterhält drei Standorte in Hannover, Osnabrück und Mannheim.


Ansprechpartner


Patrick Lehrbach 
Director Marketing, Partner Manager


 


Agile IT Management GmbH


Habichtshorststrasse 1


30655 Hannover


Deutschland


 


Mobil +491778664033


Mail: plehrbach@agile-im.de


XING: Patrick_Lehrbach


Web: www.agile-im.de


Für den Inhalt der Pressemitteilung ist der Einsteller, Julia Kashchuk (Tel.: 051187459050), verantwortlich.


Keywords: künstliche Intelligenz, KI, Machine Learning, ML, KI ML DevOps, ML Infrastruktur, Open Source Software, Open AI, Big Data, Data Science, Machine Learning Infrastruktur

Pressemitteilungstext: 855 Wörter, 9972 Zeichen. Pressemitteilung reklamieren


Kommentare:

Es wurde noch kein Kommentar zu diesem Thema abgegeben.



Ihr Kommentar zum Thema