Ev Ses Son analitik: Sonunda çok ekonomik

Son analitik: Sonunda çok ekonomik

Anonim

Techopedia Staff tarafından, 22 Eylül 2016

Paket Servisi: Ev sahibi Rebecca Jozwiak, Dr. Robin Bloor, Dez Blanchfield ve Dell Statistica'dan Shawn Rogers ile son analitiği tartışıyor.

Şu anda giriş yapmadınız. Lütfen videoyu görmek için giriş yapın veya üye olun.

Rebecca Jozwiak: Bayanlar ve baylar, merhaba ve 2016 Hot Technologies'e hoş geldiniz. Bugün “Edge Analytics: Sonunda IoT Ekonomisi” var. Adım Rebecca Jozwiak. Bugünün web yayını için moderatörünüz olacağım. Twitter sohbetine katılmak istiyorsanız # HOTTECH16 etiketiyle tweet atıyoruz.

Yani IoT, bu yıl kesinlikle sıcak bir konu ve şeylerin interneti, gerçekten makine verileri, sensör verileri, günlük verileri, cihaz verileri hakkında. Bunların hiçbiri yeni değil, bu tür verileri sonsuza kadar yaşadık, ancak bunu gerçekten kullanamadık ve şimdi bu verileri kullanmanın sadece bir ton yeni yolunu görüyoruz. Özellikle tıp endüstrisinde, petrol ve gaz, emtia ile finans piyasalarında, daha önce kullanılmamış olan sadece bir bilgi zenginliği. Ve pek çok insan bunun nasıl yapılacağı konusunda iyi bir kavrayışa sahip değil. Çok az veri hakkında konuşuyoruz, ancak çok fazla veri var ve biliyorsunuz, ilgili ağ sorunları var, ilgili donanım var veya işlenmesi gerekiyor ve bunu sisteminizi tıkamadan nasıl yapıyorsunuz? Bugün öğreneceğimiz şey bu.

İşte uzman kadromuz. The Bloor Group'ta baş analistimiz Dr. Robin Bloor var. Ayrıca Bloor Group veri bilimcimiz Dez Blanchfield da var. Dell Statistica'dan küresel pazarlama ve kanalların direktörü Shawn Rogers'a sahip olduğumuz için mutluyuz. Ve bununla, topu Robin'e geçireceğim.

Dr. Robin Bloor: Tamam, bunun için teşekkürler. Bir düğmeye basacağım ve bir slayt atacağım. Nesnelerin interneti için bu kıyamet resmini neden oluşturduğum hakkında hiçbir fikrim yok. Muhtemelen sonunda kaotik olacağını düşünüyorum. Düz devam edeceğim. Bu, herhangi bir IoT sunumunda kurs için eşittir. Bir şekilde, her şeyin nereye gittiğiyle ilgili çirkin bir şey söylemeniz gerekiyor. Ve aslında, bunların çoğu muhtemelen doğrudur. Aslında bu eğrilerin kademeli olarak genişlediğine bakarsanız. Kişisel bilgisayarlar, akıllı telefonlar ve tabletler muhtemelen yükselmeye devam edecek. Akıllı TV'ler muhtemelen yükselecektir. Giyilebilir cihazlar, muhtemelen birkaç yıl öncesine kıyasla patlıyorlar. Bağlı arabalar, hemen hemen tüm arabaların tamamen geniş bir şekilde bağlanması ve her zaman iyice veri iletmesi kaçınılmazdır. Ve diğer herşey. Ve BI Intelligence'ın bu özel grafiği, diğer her şeyin bariz şeylerden çok, çok hızlı bir şekilde ağır basacağını gösteriyor.

IoT hakkında ne söylenir? İlk şey sadece mimari bir nokta. Biliyorsunuz, verileriniz olduğunda ve sizi şu veya bu şekilde işlediğinizde, ikisini bir araya getirmeniz gerekecek. Ve ciltlerdeki verilerle şimdi ve çeşitli yerlerde toplanan ikisi artık doğal olarak bir arada değil. Sanırım eski anabilgisayar günlerinde idiler. Böylece bir işleme katmanı, bir taşıma katmanı ve bir veri katmanı olduğunu düşünebilirsiniz. Ve şu ya da bu şekilde, taşıma katmanı günümüzde işlemeyi hareket ettirecek veya verileri ağlar arasında hareket ettirecektir. İşte seçenekler: Verileri işlemeye taşıyabilir, işlemeyi verilere taşıyabilir, işlemeyi ve verileri uygun bir yürütme noktasına taşıyabilir veya işlemeyi parçalayabilir ve verileri parçalayabilirsiniz. Nesnelerin interneti ile ilgili olarak, veriler doğumda zaten parçalanmış ve olasılıkla çalıştırılması gereken uygulamaların gerçekleşebilmesi için çok fazla işlemin parçalanması olasılığıdır.

Bu yüzden bir resim çizdim. IoT hakkında bana ilginç olan şey, bu şemada bir toplama alanı hakkında konuşuyorum ve alt alanların olduğuna dikkat çekiyorum. Bu nedenle, IoT alan 1'in bir tür araba olduğunu ve alan 2 ve alan 3 ile alan 4'ün bir tür araba olduğunu ve verileri yerel olarak toplayacağınızı, bu veriler üzerinde yerel uygulamalar çalıştıracağınızı ve çeşitli şeyleri eyleme geçireceksiniz. Ancak, tüm otomobiller hakkında analitik olabilmek için, verileri tüm verilere değil, merkeze aktarmanız gerekecek, ancak merkezde toplanması gerekecek. Ve bunun hakkında düşünürseniz, aynı IoT şeyleri için birçok farklı toplama alanlarına sahip olmak isteyebilirsiniz. Ve alanların kendileri de daha fazla toplanabilir. Yani bu tekrarlayan hiyerarşiye sahip olabilirsiniz. Ve temelde elimizde inanılmaz karmaşık bir ağ var. Daha önce sahip olmamız gereken her şeyden çok daha karmaşık.

Burada altta bir not var. Yaprak düğümleri de dahil olmak üzere tüm ağ düğümleri, veri oluşturucuları, veri depoları ve işleme noktaları olabilir. Ve bu size daha önce görmediğimiz bir dağıtım olanağı verir. Dez bundan biraz daha bahsedecek, bu yüzden bu konuya geçeceğim. Bir şeylerin internetine girdikten ve tüm veriler gerçekte olay haline geldiğinde, bu slaytla ilgili nokta sadece olaylar üzerinde standartlaşmamız gerektiğini belirtmektir. En azından buna sahip olmamız gerekecek. Olayın gerçekleştiği zamana, gerçekleştiği coğrafi konuma, onu oluşturan işlemin sanal veya mantıksal konumuna, onu oluşturan kaynak cihaza, cihaz kimliğine sahip olacağız, böylece tam olarak hangi kaynak cihazın oluşturduğunu bilirsiniz, sahiplik Verilerin ve aktörlerin, verileri bir şekilde kullanma hakkına sahip olanlar, izinlerini onunla taşımak zorunda kalacak, yani gerçekten, onunla güvenlik taşımak zorunda kalacak ve sonra verinin kendisi. Ve buna baktığınızda, bir şeyin sıcaklığını her saniye veya daha fazla rapor etmeden başka bir şey yapmayan bir sensörünüz olsa bile, aslında verilerin tam olarak nerede olduğunu tanımlamak için oldukça fazla veri olduğunu fark ediyorsunuz. ve aslında ne olduğu ortaya çıktı. Bu arada, bu kapsamlı bir liste değil.

Dolayısıyla, gelecekteki BT ortamı açısından, bunu görme şeklim şu: sadece şeylerin interneti değil, aynı zamanda olay odaklı bir faaliyet dünyasında olacağımız gerçeği var ve bu nedenle etkinlik odaklı mimarilere sahip olacak ve bu mimarilerin büyük ağlara yayılması gerekecek. Ve diğer şey gerçek zamanlı her şeydir, gerçek zamanlı olmamız zorunlu değildir, ancak iş zamanı olarak bahsettiğim bir şey var, bu da verilerin gerçekte sunulması ve hazır olması gereken zamandır. işlenmiş. Bu, yaratıldıktan bir milisaniye sonra olmayabilir. Ancak her veri parçası için her zaman böyle bir zaman vardır ve olay odaklı bir mimariye sahip olduğunuzda, dünyanın çalışma biçimine gerçek zamanlı bir yaklaşım açısından düşünmek daha mantıklı olmaya başlar.

Yani onu kaynatmak, çünkü gerçekten bahsettiğimiz şey IoT'deki analitik. Tüm bunlara rağmen, hala içgörü zamanı ve içgörü zamanı değil, içgörü eylemler izlemeli. Yani, içgörü zamanı ve eyleme geçme zamanı, onu kaynatmam gereken şey. Bunu söyledikten sonra, topu Dez'e geri vereceğim.

Dez Blanchfield: Teşekkürler, Robin. Her zamanki gibi anlayışlı. Her durumda takip edilmesi zor bir eylem olduğu gerçeğini seviyorum, ama elimden geleni yapacağım.

Gördüğüm şeylerden biri ve sık sık, dürüst olmak gerekirse, sadakatsiz ve olumsuz bir eğik formda değil, ama dünyayı ele geçiren şeylerin interneti hakkında çok endişe ve panik var Bizi yerleştirip verilerinizi kaybetmeye başlayacaksınız, bu yüzden internete yakın bir faks olan son iki ila otuz yılda daha önce yaptığımız bazı şeylere bir kez daha bakmak istiyorum. ama aynı ölçekte değil. Ve sadece kendimize burada olduğumuzu ve bu ölçekte değil, bu hızda değil bazı problemleri çözdüğümüzü göstermek için. Çünkü bu, sorunu gerçekten çözebileceğimiz ve bazı cevapların ne olduğunu bildiğimiz anlamına gelir; daha önce öğrendiklerimizden bazılarını yavaşlatmalı ve yeniden uygulamalıyız. Ve biliyorum ki bu konuşacağımız konuşmanın tamamı ve sadece soru-cevap bölümünde sohbet etmek için bir sürü eğlenceli şeyim var.

Ancak, çevre içindeki şeylerin interneti hakkında düşündüğümüzde, şu anda tasarım seviyesinde çok erken günlerde yazılmış çok sayıda merkezileşme var. Örneğin, Fitbit cihazlarının hepsi tek bir merkezi yere gitme eğilimindedir ve bir yerde bir bulut platformunda barındırılması muhtemeldir ve tüm bu cihazlardan gelen tüm veriler aynıdır, diyelim ki, web de dahil olmak üzere bir yığının ön ucu ve uygulama ve veri tabanlı hizmetler. Ancak zamanla bu ölçek, kendilerine gelen veri miktarıyla başa çıkmak için yeniden yapılandırmayı gerektirecek ve böylece yeniden tasarlanacak ve böylece birden fazla yerde ve bölgede birden fazla ön uç ve birden çok kopya var. Bunu görüyoruz ve size tartışabileceğimiz birkaç örnek vereceğim.

Bunun kilit noktası, kapsamak üzere olduğum bu çözümlerden bazılarını görmüş olsak da, verilerin ölçeği ve hacmi ile nesnelerin internetinin üreteceği ağ trafiğinin acilen merkezden bir geçiş gerektirmesi benim görüşüme göre mimarileri dağıtmak ve bunu biliyoruz ancak çözümün ne olduğunu kavrayamadık. Nesnelerin interneti nedir kavramını düşündüğümüzde, bu büyük ölçekli bir ağ modeli. Şimdi gürültü yapan çok şey var. Yakın zamana kadar gürültü yapmayan şeyler. Ve aslında, dün olduğunu düşünüyorum, yığın hakkında şaka yollu konuşuyordum, ama yeni bir ekmek kızartma makinesi almaya gittim ve bana, temizlik gerektiğinde de dahil olmak üzere çeşitli şeyler söyleyebilecek bir seçenekle geldi. Ve çok benzer bir özelliğe sahip yeni bir mikrodalga ve hatta ısıttığım şeyin şimdi yapıldığını söylemek için telefonumdaki bir uygulamaya ping bile yapabilirdi. Ve benimle konuşmak istemediğim bir kaç şey varsa benim buzdolabım, mikrodalga fırınım ve ekmek kızartma makinem. Aptal cihazlar olma konusunda oldukça rahatım. Ama son zamanlarda yeni bir arabam var, biraz Audi ve benimle konuşuyor ve bundan oldukça memnunum, çünkü bahsettiği şeyler ilgi çeken şeyler. Haritaları gerçek zamanlı olarak güncellemek gibi, A noktasından B noktasına gitmek için daha iyi bir yolun nerede olduğunu söylemek gibi, çünkü gönderildiği verilerle çeşitli mekanizmalar yoluyla trafik algıladı.

Bu slaydım var. Yüksek hacimli ağ modellerinin, veri işleme ve analiz modellerinin merkezden dağıtılmış yakalama ve dağıtımına geçiş gerektirdiğini zaten gördük. Elimizdeki sağ kenardaki üç küçük grafik diyagramından bir şeylerin hareket ettiğini gördük, üçünün solundakiler, tüm küçük cihazların merkezi konuma geldiği merkezi bir model var ve veri toplamak ve ölçek o kadar büyük değil, orada iyi başa çıkıyor. Ortada biraz daha merkezi olmayan bir modelimiz ve hub'ımız var ve konuştuk, bu da gelecek nesildeki şeylerin interneti ile ihtiyacımız olacağını düşünüyorum. Ve sonra sağ tarafta, şeylerin ve makineden makineye gelecekte çok kısa vadede gidilecek olan tam olarak dağıtılmış ve örgülü ağımız var, ancak tam olarak orada çeşitli nedenlerle. Ve ağırlıklı olarak iletişimin çoğu için internet platformları kullandığımızdan ve aslında bu verilerin çoğunu taşımak için ikinci bir ağ kurmadık.

Batelco ağı gibi halihazırda var olan ikinci ağlar var. Birçok insan telekom ağlarının internet olmadığı gerçeğini düşünmüyor. İnternet birçok yönden çok ayrı bir şeydir. Akıllı telefonlardan gelen verileri telefon ağları üzerinden ve daha sonra telefon ağları üzerinden ve genel olarak internete yönlendiriyorlar ve burada onları iki ağda katmanlıyorlar. Ancak, şeylerin internetinin başka bir ağa ihtiyaç duyacağı tamamen olasıdır ve muhtemelen. Genel olarak bir konu olarak endüstriyel internetten bahsediyoruz, şimdi ayrıntıya girmeyeceğiz, ancak temelde özellikle veri veya nesnelerin internetten ve makineden makineye taşınması için tasarlanmış başka bir ağdan bahsediyoruz. iletişim.

Ancak, yüksek hacimli ağların ve dağıtılmış verilerin çok iyi çalıştığını gördüğümüz yerde paylaşmak istediğim bazı örnekler internet gibi şeyler. İnternet, ilk günden itibaren nükleer bir savaşta ayakta kalabilecek şekilde özel olarak tasarlandı ve tasarlandı. ABD'nin bazı bölümleri havaya uçurulmuşsa, internet hala bağlı olduğumuz nedenlerden dolayı verilerin internette paket kaybı olmadan dolaşabileceği şekilde tasarlanmıştır. Ve bu bugün hala küresel ölçekte var. İnternet artıklık ve yönlendirme paketleri etrafında birçok özelliğe sahiptir. Ve aslında internet, BGP, Sınır Ağ Geçidi Protokolü ve Sınır Ağ Geçidi Protokolü (BGP) denen bir şey tarafından kontrol edilir, özellikle bir yönlendirici veya anahtar veya sunucunun kapalı olmasıyla başa çıkmak için tasarlanmıştır. Bir e-posta gönderdiğinizde veya aldığınızda, arka arkaya üç e-posta gönderirseniz, bu e-postaların her birinin aynı bitiş hedefine aynı rotayı izleyeceğinin garantisi yoktur. Çeşitli nedenlerle internetin farklı bölümlerinden geçebilirler. Bir kesinti olabilir, şeylerin yükseltilmesi için çevrimdışı olan bakım pencereleri olabilir, sadece ağda tıkanıklık olabilir ve araba ve toplu taşıma ile trafik ağları ve gemiler ve uçaklar gibi şeylerle bunu görüyoruz. Dizüstü bilgisayarlarımız ve tabletlerimiz ve bilgisayarlarımız gibi cihazlarımıza tarayıcılar aracılığıyla içerikler gönderiyoruz. İçerik dağıtım ağları, web sunucusu gibi birincil sunum platformunuzdan içeriğin kopyalarını almak ve bunun kopyalarını ve önbelleği küçük miktarlarda ağın kenarına taşımak ve yalnızca kenarın en yakın kısmından size ulaştırmakla ilgilidir.

Anti-spam ve siber güvenlik - Kanada'da bir spam olayı gerçekleşir ve Microsoft olayı algılar ve aynı e-postanın bir grup rasgele kişiye gönderildiğini görürse, sağlama toplamları alınır, bu mesaj için bir imza oluşturulmuş ve bir ağa konulmuş ve hemen dağıtılmıştır. Ve böylece e-posta hiçbir zaman gelen kutuma girmez veya alırsa, ağın kenarında başka bir yerde tespit edildiğinden hemen spam olarak etiketlenir. Ve böylece ağın kenarındaki diğer kısımlara bu spam mesaj imzası hakkında bilgi verilir ve bu bir veritabanının dizinine konur ve eğer bu mesajlar gezegenin diğer tarafında görünmeye başlarsa, onları tespit ederiz ve spam olduklarını biliyoruz. Aynı şey siber güvenlik için de geçerlidir. Gezegenin bir tarafında gerçekleşen bir saldırı tespit edilip kaydedilip eşleştirilir ve ağın diğer tarafında aniden hepsi onunla savaşabilir ve kuralları ve politikaları dosyalayabilir ve onu engelleyip engelleyemeyeceğimizi görmek için değiştirebiliriz. Özellikle binlerce makinenin merkezi bir web sitesine saldırmak için kullanıldığı hizmet reddi veya dağıtılmış hizmet reddi gibi şeylerin yeni etkisi ile.

Bitcoin ve blockchain, varsayılan olarak, doğasında dağıtılmış bir defter, blok zinciri ve ağdaki herhangi bir kesinti veya kırılma ile başa çıkmaktadır. Sahtecilik algılama ve önleme, güç ve su yardımcı programları - görüyoruz, güç ağını biliyorsunuz, ağın bir kısmı üzerine bir ağaç arazisi alıp bir kutup ve bir tel alırsa, evim hala güç kazanıyor. Bunu bile bilmiyorum, çoğu zaman haberlerde bile görmüyorum. Ve hepimiz başlangıçta merkezi bir model olan “Tüm yollar Roma'ya götürdü” ulaşım ağlarına alışkınız ve dedikleri gibi, sonunda merkezler ve konuşmacılarla merkezi olmayan modele gitmek zorunda kaldık ve sonra gittik çeşitli ağlar ve farklı kavşaklar üzerinden şehrin bir tarafından diğer tarafına ulaşabileceğiniz ağlı bir ağa. Ve burada gördüğümüz şey, şu anda nesnelerin interneti ile yaptığımız bu merkezileştirilmiş modelin ağın kenarına doğru itilmesi gerekecek. Bu, analitik için her zamankinden daha fazla geçerlidir ve bu nedenle analitiği ağa aktarmamız gerekir. Bunu yapmak için, bence bu verilere ve veri akışlarına nasıl eriştiğimiz ve işlediğimiz konusunda tamamen yeni bir yaklaşım gerekiyor. Şimdi internete bağlı cihazlarda sınırlı istihbaratın ağın kenarına itildiğini düşündüğümüz bir senaryodan bahsediyoruz, ancak yakında bu cihazların istihbaratta arttığını ve istedikleri analitik seviyesini artırdığını göreceğiz. yapmak. Ve bunun sonucunda bu akıllıları ağ üzerinden daha da ileriye doğru itmemiz gerekecek.

Örneğin, akıllı uygulamalar ve sosyal medya - sosyal medya ve bazı akıllı uygulamaları düşünürsek, hala çok merkezi. Facebook beğenileri için sadece iki veya üç veri merkezi var. Google çok daha merkezsiz hale geldi, ancak dünya çapında hala sınırlı sayıda veri merkezi var. Sonra içerik kişiselleştirmeyi düşündüğümüzde, çok yerel bir düzeyde düşünmeniz gerekir. Bunların çoğu tarayıcınızda veya yerel içerik dağıtım ağı katmanında yapılır. Ve sağlık ve fitness izleyicileri düşünüyoruz - onlardan toplanan verilerin çoğu yerel olarak analiz ediliyor ve böylece bileğinize koyduğunuz Garmin ve Fitbit cihazlarının yeni sürümleri, cihazda daha akıllı ve daha akıllı hale geliyor . Artık kalp atış hızınızla ilgili tüm verileri analitiğin yapılmasını denemek için merkezi bir sunucuya geri göndermiyorlar; bu zekayı doğrudan cihaza inşa ediyorlar. Araç içi navigasyon, eskiden otomobilin sürekli olarak merkezi bir konumdan güncellemeler ve haritalar alacağıydı, şimdi akıllılar arabada ve arabanın kendi kararlarını kendisi veriyor ve sonunda arabalar birbirine bağlanacaktı. Arabalar, bir sonraki nesil bir 3G veya 4G kablosuz ağ üzerinden olabilecek bir şekilde kablosuz ağlar aracılığıyla birbirleriyle konuşacaklar, ancak sonunda cihazdan cihaza olacak. Ve bunun hacmiyle başa çıkmanın tek yolu, cihazları daha akıllı hale getirmektir.

Yerel olarak bilgi toplayacak ve bunları merkezi olarak veya bir ağa gönderecek ve yerel olarak neler olduğuna karar verecek acil uyarı sistemlerimiz var. Örneğin, Japonya'da, insanların akıllı telefonlarında akıllı telefonda ivmeölçerlerle çalıştırdığı uygulamalar var. Akıllı telefondaki ivmeölçerler titreşimleri ve hareketi algılayacak ve sadece normal günlük hareket ile bir depremin titremeleri ve şokları arasındaki farkı belirleyebilir. Ve bu telefon sizi hemen yerel olarak uyarmaya başlayacaktır. Gerçek uygulama depremleri tespit ettiğini bilir. Ancak, bu verileri, dağıtılmış bir hub'daki bir ağ üzerinden paylaşır ve modelinizi yaklaştırır, böylece yakınınızdaki insanlar hemen veya verilerin ağdan aktığı anda en kısa sürede uyarılırlar. Ve nihayetinde merkezi bir konuma veya merkezi konumun dağıtılmış bir kopyasına ulaştığında, yakın bölgede olmayan, gezegenin hareketini tespit etmeyen, ancak uyarılması gereken insanlara geri iter. belki bir tsunami geliyor.

Ve akıllı şehir altyapısı - akıllı altyapı kavramı, zekayı zaten akıllı binalara ve akıllı altyapıya inşa ediyoruz. Aslında dün arabamı şehrin bir kısmının yenilenip yeniden inşa edildiği yeni bir alana park ettim. Ve tüm sokakları yeniden yaptılar ve sokaklarda sensörler var ve gerçek parkmetre, bir araba ile girdiğimde, iki saatlik sınır için yenilemeye gittiğimde araba hareket etmedi ve iki saat daha kalmama izin vermedi. Arabaya binmek, uzaydan çekilmek ve sonra iki saat daha orada kalmama izin vermek için kandırmak için geri çekilmek zorunda kaldım. Ama ilginç olan, sonunda bölgeye sadece yerelleştirilmiş bir sensör olarak giren arabanın tespit edilmediği noktaya değil, aynı zamanda plakama bakan kameralarla tanınmanın uygulanacağı optik özellikler gibi şeylere gideceği ve Aslında çekip geri çekip kandırdım ve bu beni yenilememe izin vermiyor ve devam edeceğim. Ve sonra bu verileri dağıtacak ve bunu başka hiçbir yerde yapamayacağımdan ve ağı sürekli olarak kandıracağımdan emin olacak. Çünkü doğası gereği daha akıllı olmalı, aksi halde hepimiz kandırmaya devam edeceğiz.

Bunun kişisel olarak, güvenlik duvarı teknolojisinde, 80'lerin sonunda ve 90'ların başında, Check Point FireWall-1 adlı bir üründe yaşadığım bir örnek var. Kurallar oluşturmak ve belirli şeyler etrafında politikalar ve kurallar oluşturmak için kullandığımız çok basit bir güvenlik duvarı teknolojisi, belirli bağlantı noktaları ve IP adresleri ve ağları üzerinden trafik türlerinin bir yerden diğerine ulaşmak için, web trafiğini bir yerden diğerine, tarayıcı ve istemci sonundan sunucu sonumuza kadar. Bu sorunu, aslında mantığı güvenlik duvarlarından çıkararak ve uygulamaya özel entegre devre ASIC'e taşıyarak çözdük. Ethernet anahtarlarındaki bağlantı noktalarını kontrol ediyordu. Güvenlik duvarı olarak karar vermek için aslında sunucu olarak kullandığımız sunucu bilgisayarların, her paket denetimi için bunlardan geçen trafik hacmini kaldırabilecek kadar güçlü olmadığını gördük. Sorunu, paket denetimi ve internet algılamaları yapmak için gereken mantığı dağıtılan ve ağ seviyesinden geçen veri hacmini işleyebilen ağ anahtarlarına taşıyarak çözdük. Güvenlik duvarları ile merkezi düzeyde endişelenmedik, anahtarlara taşıdık.

Ve böylece üreticilerin yolları ve kuralları ve politikaları Ethernet anahtarına itebilme yeteneğini geliştirdik, böylece gerçek Ethernet portu seviyesinde ve belki de havuzdaki birçok halk buna aşina değil, çünkü Şimdi hepsi kablosuz dünyada yaşıyor, ama bir zamanlar her şey Ethernet üzerinden takılmak zorundaydı. Ethernet bağlantı noktası düzeyinde, paketlerin anahtara ve ağa taşınmasına izin verilip verilmediğini görmek için paketlerin denetimini yapıyorduk. Şunlardan bazıları, ağda, özellikle IRT cihazlarından veri yakalama ve bunu inceleme ve üzerinde analiz yapma ve muhtemelen üzerinde karar vermek için gerçek zamanlı olarak analiz yapma zorluğu etrafında çözdüğümüz şeydir. Ve bazıları iş zekası ve insanların cihazlarla cihazlarla konuştuğu ve kararlar verdiği makine-makine seviyesindeki şeyler için nasıl daha iyi kararlar aldıklarına ve diğer analitik ve performansa dair bilgiler edinmek.

Ve bu, yakın gelecekte çözüme bakmamız gereken bir eğilim olacak, çünkü eğer yapmazsak, sadece bu gürültü dalgasıyla sonuçlanacağız. Ve büyük veri dünyasında gördük, veri gölleri gibi veri bataklıklarına dönüşen şeylerin, merkezi bir süreçte işleme analitiğini nasıl çözeceğimizi anlayamadığımız bir gürültü gürültüsü ile sonuçlandığını gördük moda. Bu sorunu çözmezsek, bence, IoT ile hemen ve bir platform çözümü çok hızlı bir şekilde alırsak, çok, çok kötü bir yerde olacağız.

Bunu göz önünde bulundurarak şu noktaya yaklaşacağım; şu anda büyük veri ve analitik alanında gerçekleşen en büyük değişikliklerden birinin, internetin etkisine hemen tepki verme ihtiyacı tarafından yönlendirildiğine inanıyorum. yüksek hacimli ve gerçek zamanlı analitik konularında, analitiği ağa ve daha sonra sadece ağın hacmiyle başa çıkmak için sadece işlemek için harekete geçirmemiz gerekiyor. Ve sonunda, umarım, zekayı ağa ve ağın kenarına bir hub'a koyduk ve gerçekten yönetebileceğimiz ve gerçek zamanlı olarak içgörü kazandığımız ve ondan değer alabileceğimiz bir model konuştuk. Ve bununla misafirimize geçip bu konuşmanın bizi nereye götüreceğini göreceğim.

Shawn Rogers: Çok teşekkür ederim. Bu Dell Statistica'dan Shawn Rogers ve oğlan, sadece, burada değinilen tüm önemli konulara tamamen katılıyorum. Ve Rebecca, bu verilerin yeni olmadığı fikrinden biriyle başladınız ve veriler, veriler ve IoT'nin verilerini tartışmak için ne kadar zaman ve enerji harcandığına dikkat çekiyorum. Ve kesinlikle alakalı, bilirsiniz, Robin iyi bir noktaya değindi, gerçekten basit bir şey yapsanız ve saniyede bir termostata giriyor olsanız bile, bilirsiniz, bunu günde 24 saat yaparsınız ve aslında, bilirsiniz, bazı ilginç veri zorlukları. Ama biliyorsunuz, sonunda - ve bence sektördeki birçok insan verilerden böyle konuşuyor - gerçekten o kadar da ilginç değil ve Rebecca'nın görüşüne göre, iyi, uzun zamandır var, ama geçmişte bundan büyük fayda sağlayamadık. Bence gelişmiş analiz endüstrisi ve BI endüstrisi genel olarak başlarını IoT'ye çevirmeye başlıyor. Ve Dez, son noktanıza kadar, bu büyük veri ortamının zorlu noktalarının bir parçası ya da bir tanesi olmak bence çok doğru. Herkesin bu tür verilerle neler yapabileceğimiz konusunda çok heyecanlı olduğunu, ancak aynı zamanda, içgörüyü nasıl uygulayacağımızı, harekete geçeceğimizi ve bilirsiniz, verilerin nerede olduğu konusunda analitik elde edebileceğimizi düşünüyorsanız, bence insanların gerçekten kendi yollarına geldiğini görmedikleri zorluklarla karşılaşacağız.

Bununla birlikte, gelişmiş analiz alanında, özellikle analitik uyguluyorsak, IoT verileriyle olabileceğini düşündüğümüzün büyük hayranlarıyız. Ve bu slaytta çok fazla bilgi var ve herkesin avlanmasına ve gagalamasına izin vereceğim, ancak en sağdaki perakende gibi farklı sektörlere bakarsanız, daha yenilikçi olabilmek veya bazılarına sahip olmaktan kaynaklanan fırsatlarını görüyorsunuz. maliyet tasarrufu veya süreç optimizasyonu veya iyileştirmeleri çok önemlidir ve bunun için birçok kullanım durumu görmektedirler. Slaytta soldan sağa doğru bakarsanız, bu bireysel sektörlerin her birinin IoT'ye analiz uygularken kendileri için nasıl yeni yetenekler ve yeni farklılaştırma fırsatları talep ettiğini göreceksiniz. Ve bence sonuç şu ki, bu yolda ilerlemeye çalışacaksanız, sadece tartıştığımız gibi, veriler ve mimari hakkında endişelenmek zorunda değilsiniz, aynı zamanda en iyi nasıl analitiği ona ve analizin gerçekleşmesi gereken yere uygulayın.

Bugünün çağrısında bulunan birçoğumuz için, Robin ve ben birbirimizi çok uzun zaman tanıdık ve geçmişte geleneksel mimariler, merkezi veri tabanları veya kurumsal veri ambarları ve benzerleri hakkında sayısız konuşmalar yaptık. ve son on yılda bu altyapıların sınırlarını genişletmek için oldukça iyi bir iş çıkarıyoruz. Ayrıca, bilgiye uyguladığımız tüm harika analitiği desteklemek için elbette bugün olmasını istediğimiz kadar sağlam veya güçlü değiller ve elbette bilginin mimariyi de bozduğunu biliyorsunuz, verinin hızı, verinin hacmi vb. kesinlikle daha geleneksel yaklaşımlarımızın ve stratejilerimizin bazılarının bu tür çalışmalarla sınırlarını genişletmektedir. Ve bence şirketlerin bunun daha çevik ve belki de daha esnek bir bakış açısına sahip olmalarını gerektirmeye başladığını düşünüyorum ve bu, sanırım, IoT tarafında biraz bahsetmek istiyorum.

Benden önce, sadece herkesin görüşmesine izin vermek, Statistica'nın ne olduğu ve ne yaptığımız hakkında biraz arka plan vermek için biraz zaman ayıracağım. Bu slaydın başlığında görebileceğiniz gibi Statistica, IoT platformu için öngörücü bir analiz, büyük veri ve görselleştirmedir. Ürünün kendisi 30 yaşın biraz üzerindedir ve tahmini analitik, gelişmiş analitik verilere uygulayabilme çizgisi boyunca muhtemelen aşina olduğunuz diğer liderlerle rekabet ediyoruz. Analitiklerimizi nereye koyduğumuza olan erişimimizi genişletme fırsatı bulduk ve bir süre önce, Dez ve Robin'in bugün hakkında konuştuklarından yararlanmak için oldukça iyi konumlanmış bazı teknolojiler üzerinde çalışmaya başladık, bu yeni yaklaşım ve analitiği nereye koyacağınızı ve verileri verilerle nasıl birleştireceğinizi. Bu tarafta, platformla ele almanız gereken başka şeyler de geliyor ve bahsettiğim gibi, Statistica uzun zamandır piyasada. İşlerin veri harmanlama tarafında çok iyiyiz ve bence, bugün veri erişimi hakkında çok fazla konuşmadık, ancak bu çeşitli ağlarda ulaşıp ellerinizi doğru verilere ulaştırabiliyoruz. doğru zaman son kullanıcılar için gittikçe daha ilginç ve önemli hale geliyor.

Son olarak, burada bir parça daha yorumlayacağım, çünkü Dez ağların kendileri hakkında iyi bir noktaya değindi, çevrenizdeki analitik modeller üzerinde bir miktar kontrol ve güvenlik ve verilerin veriye nasıl bağlandıkları çok önemli hale geldi. Bu sektöre birkaç yıl önce girdiğimde - yaklaşık 20 sanırım bu noktada - gelişmiş analitik hakkında konuştuğumuzda, çok küratörlü bir şekildeydi. Kuruluştaki sadece birkaç kişi ellerini ele aldı, konuşlandırdılar ve insanlara gerektiği gibi cevap verdiler veya gerektiği gibi bilgiler sağladılar. Bu gerçekten değişiyor ve gördüğümüz, verilere ulaşmanın bir veya daha fazla ve daha esnek bir yoluyla çalışan, verilere güvenlik ve yönetişim uygulayan ve daha sonra üzerinde işbirliği yapabilen birçok insan. Bunlar Dell Statistica'nın baktığı önemli şeylerden bazıları.

Ama bugünün başlığına biraz daha yakın olan konuya dalmak istiyorum, yani şeylerin internetinden gelen verileri nasıl ele almalıyız ve farklı çözümlere bakarken neleri aramak isteyebilirsiniz. Şu anda önünüzde kaldığım slayt bir tür geleneksel görüş ve hem Dez hem de Robin bu konuya değindi, bilirsiniz, bir sensörle konuşma fikri, ister otomobil ister tost makinesi olsun, bir rüzgar türbini ya da neyiniz var ve sonra Dez'in de bahsettiği gibi bu verileri veri kaynağından ağınıza merkezi bir konfigürasyona geri taşıyoruz. Ve oldukça iyi ağlar ve birçok şirket IoT alanına giriyor, başlangıçta bu modelle yapmaya başlıyor.

Slaydın alt kısmına bakarsanız gelen diğer bir şey, diğer geleneksel veri kaynaklarını alma, IoT verilerinizi artırma ve daha sonra bu tür çekirdekte, çekirdeğinizin bir veri merkezi mi yoksa bulutta olabilir, önemli değil, Statistica gibi bir ürün alıp o noktada analitik uygularsınız ve ardından bu bilgileri sağdaki tüketicilere sağlarsınız. Ve bence bu da bu noktada masa riskleri. Bu, yapabilmeniz gereken bir şeydir ve gelişmiş bir analiz platformu için yeterince açık bir mimariye sahip olmanız ve tüm bu, çeşitli veri kaynakları, tüm bu sensörler ve tüm bu farklı hedeflerle konuşmanız gerekir. verilere sahipsiniz. Ve bence bu yapabilmeniz gereken bir şey ve sanırım piyasadaki birçok liderin bu tür şeyleri yapabildiğini doğru bulacağınızı düşünüyorum. Burada Statistica'da temel analitik olarak bunun hakkında konuşuyoruz. Verileri alın, verileri çekirdeğe geri getirin, işleyin, gerekirse veya avantajlıysa daha fazla veri ekleyin ve analizlerinizi yapın ve ardından bu bilgileri eylem veya içgörü için paylaşın.

Ve bence bunlar kesinlikle bir fonksiyon açısından bakıldığında, muhtemelen hepimiz bunun çıplak bir zorunluluk olduğu ve herkesin bunu yapması gerektiği konusunda hemfikiriz. Biraz ilginç olmaya başladığı yerde, büyük miktarda veriye sahip olduğunuz yer, biliyorsunuz, IoT sensörleri gibi çeşitli veri kaynaklarından geliyor, bahsettiğim gibi, ister araba ister güvenlik kamerası veya üretim süreci olsun, verinin gerçekte üretildiği yerde analitik yapabilmenin avantajı. Ve çoğu insanın avantajı, bence, analitiği çekirdekten kenara taşımaya başladığımızda, meydana gelen bazı veri zorluklarını yayma kabiliyeti ve Dez ve Robin muhtemelen bunun üzerine yorum yapacak bugün, ancak tüm verileri ağınıza taşımak için her zaman gerekli olmayacak şekilde verileri izlemeniz ve işlem yapabilmeniz gerektiğini düşünüyorum. Robin bunu, çizdiği mimari resimlerde, tüm bu farklı kaynaklara sahip olduğunuz yerde konuştu, ancak genellikle bir miktar toplanma noktası var. Oldukça sık gördüğümüz toplama noktası ya sensör seviyesinde, daha da çok ağ geçidi seviyesinde. Ve bu ağ geçitleri, çekirdeğe dönmeden önce veri kaynaklarından gelen veri akışında bir tür aracı olarak bulunur.

Dell Statistica'nın avantajlarından biri, merkezi gelişmiş analiz platformumuzdan bir modeli dışa aktarabilmemiz ve daha sonra bu modeli bir ağ geçidi veya içeride farklı bir platformda uygulayabilmemiz için bir modeli dışa aktarma kapasitemizdir. bir veritabanının veya neyin var. Ve bence bize veren esnekliğin bugünkü konuşmanın ilginç yanı nedir, bugün bunu altyapınızda var mı? Bir analitiği verilerin nerede yaşandığına karşı taşıyabiliyor musunuz, sadece verileri her zaman analitiklerinizin yaşadığı yere taşımanız mümkün mü? Ve bu Statistica'nın uzun süredir odaklandığı bir şey ve slaytlara daha yakından baktığınızda, kardeş şirketimiz Dell Boomi'den başka bir teknoloji olduğunu göreceksiniz. Dell Boomi'nin buluttaki bir veri entegrasyonu ve uygulama entegrasyonu platformu ve modellerimizi Dell Statistica'dan Boomi'ye ve uçtan uca cihazlara taşımak için Dell Boomi'yi bir trafik cihazı olarak kullanıyoruz. Ve bunun, şirketlerin bir dakika önce gösterdiğim sürümü beğendikleri kadar talep ettikleri çevik bir yaklaşım olduğunu düşünüyoruz, bu da verileri sensörlerden tamamen geriye taşımak gibi temel bir fikir. Aynı zamanda şirketler bunu burada özetlediğim gibi yapmak isteyeceklerdir. Ve bunu yapmanın avantajları, hem Robin'in hem de Dez'in yaptığı bazı noktalara, yani bir karar verebilir ve işinizin hızında harekete geçebilir misiniz? Analitiği bir yerden başka bir yere taşıyabilir ve bu uç verileri sürekli olarak çekirdeğe taşımanın zaman, para, enerji ve karmaşıklığından tasarruf edebilirsiniz.

Şimdi, bazı kenar verilerin bazılarının her zaman bu verileri depolamanın ve saklamanın ve ağınıza geri getirmenin mantıklı olacağı kadar yüksek bir değere sahip olacağını söyleyen ilk kişi benim, ancak hangi kenar analitiği size Verilerin gerçekte geldiği hızda karar verme yeteneği değil mi? İçgörü ve eylemi mümkün olan en yüksek değerin olduğu bir hızda uygulayabilmeniz. Ve bence bu, gelişmiş analitik ve IoT verilerini kullanmak için hepimizin arayacağı bir şey, işin hızında veya müşterinin talep ettiği hızda hareket etmek için bu fırsat. Bence konumumuz, her ikisini de yapabilmeniz gerektiğini düşünüyorum. Ve daha fazla şirket, özellikle IoT tarafındakiler gibi daha çeşitli veri setlerine baktıkça, çok yakında ve çok hızlı bir şekilde, satıcı alanına bakmaya ve Statistica'nın neler yapabileceğini talep etmeye başlayacaklarını düşünüyorum. Geleneksel olarak uzun yıllardır yaptığımız gibi bir modeli merkezde ya da bir IoT ağ geçidi gibi belki de geleneksel olmayan platformlara yerleştirmek ve gerçekte verilere analitik puanlama ve uygulama yapabilmek Veriler üretilirken kenarda. Sanırım bu konuşmanın heyecan verici kısmı devreye giriyor. Çünkü veriler bir sensörden çıktığı sırada kenarına bir analitik uygulayabildiğimiz için, ihtiyaç duyduğumuz kadar hızlı hareket etmemizi sağlıyor, aynı zamanda karar vermemize de izin veriyor, bu verinin hemen çekirdeğe kadar geri dönmesi gerekiyor mu? Buradan toplu olarak parçalara ve parçalara geri gönderebilir ve daha sonra analiz yapabilir miyiz? Önde gelen müşterilerimizin birçoğunun yaptığı şey de bu.

Dell Statistica'nın bunu yapma şeklimiz, kullanma yeteneğimizdir, bu nedenle örneğin Statistica'nın içine bir sinir ağı oluşturduğunuzu ve sinir ağını veri ortamınıza başka bir yere koymak istediğinizi varsayalım. Bu modelleri ve sağ köşede fark ettiğiniz tüm dilleri çıktılama yeteneğine sahibiz - Java, PPML, C ve SQL ve benzeri, ayrıca Python'u da ekliyoruz ve komut dosyalarımızı da dışa aktarabiliyoruz - ve bunu merkezileştirilmiş platformumuzdan uzaklaştırdığınızda, o modeli veya algoritmayı ihtiyacınız olan her yere dağıtabilirsiniz. Daha önce de belirttiğim gibi, Dell Boomi'yi kullanarak onu çalıştırmamız gereken yere koyarız ve ardından sonuçları geri getirebiliriz veya verileri geri getirmeye veya verileri puanlamaya ve kural motorumuzu kullanarak harekete geçmeye yardımcı olabiliriz. . Bu tür verilere bakmaya başladığımızda ve yine düşündüğümüzde bunların hepsi önemli hale geliyor.

Bu, telefondaki çoğunuzun yapması gereken bir şeydir, çünkü Dez'in de belirttiği gibi, bu diyagramların solundan bu diyagramların sağına veri taşımak için ağınızda çok pahalı ve vergilendirilecektir. saati. Kulağa pek hoş gelmiyor ama fabrikalarında on bin sensörlü üretim yapan müşteriler gördük. Fabrikanızda on bin sensörünüz varsa, bunları sadece ikinci bir test veya sinyal yapıyor olsanız bile, günde bu sensörlerin her birinden yaklaşık seksen dört bin satırlık veriyi konuşuyorsunuz. Ve böylece veriler kesinlikle birikiyor ve Robin bundan bahsetti. Açıkçası, insanların yazılımımızı ve IoT verilerini kullanarak oldukça ilginç şeyler yaptıklarını gördüğümüz birkaç sektörden bahsettim: bina otomasyonu, enerji, yardımcı programlar gerçekten önemli bir alan. Enerji optimizasyonu, otomasyon için bina içinde sistem optimizasyonu, hatta müşteri hizmetleri ve tabii ki genel operasyon ve bakım konularında çok fazla iş yapıldığını görüyoruz. Ve bunlar oldukça güçlü gördüğümüz bazı kullanım durumları.

Daha önce analitik yapıyorduk, sanırım, terim üretildi. Bahsettiğim gibi, Statistica'da derin köklerimiz var. Şirket yaklaşık 30 yıl önce kuruldu, bu nedenle IoT verilerini analitikleriyle bütünleştiren ve bir süredir müşterilerimiz oldukça geri döndü. Ve Alliant Enerji, kullanım durumlarımızdan veya referans müşterilerimizden biridir. Ve bir enerji şirketinin fiziksel bir tesisle ilgili sorununu hayal edebilirsiniz. Fiziksel bir tesisin tuğla duvarlarının ötesine geçmek zordur ve bu nedenle Alliant gibi enerji şirketleri enerji çıktılarını optimize etmenin, temel olarak üretim süreçlerini geliştirmenin ve en üst seviyeye optimize etmenin yollarını arıyorlar. Ve Statistica'yı tesislerindeki fırınları yönetmek için kullanıyorlar. Ve fen dersinde ilk günlerimize geri dönen hepimiz için fırınların ısı ürettiğini, ısının buhar yaptığını, türbinlerin döndüğünü biliyoruz, elektrik alıyoruz. Alliant gibi şirketler için sorun aslında bu büyük siklon fırınlarında işlerin nasıl ısındığını ve yakıldığını optimize etmektir. Ve kirliliği, karbon yer değiştirmesini ve benzeri ekstra maliyetleri önlemek için çıktıyı optimize etmek. Ve böylece bu siklon fırınlarından birinin içini tüm bu cihazlarla, sensörlerle izleyebilmeli ve daha sonra bu sensör verilerinin hepsini almalı ve sürekli olarak enerji işleminde değişiklikler yapmalısınız. Ve Statistica'nın IoT terimi bile çok popüler olmadan 2007'den beri Alliant için yaptığı şey tam olarak bu.

Rebecca'nın erken dönemine gelince, veriler kesinlikle yeni değil. Onu işleme ve doğru kullanma yeteneği gerçekten heyecan verici şeylerin olduğu yerdir. Bugün ön aramada sağlık hizmetleri hakkında biraz konuştuk ve insanların daha iyi hasta bakımı, önleyici bakım, tedarik zinciri yönetimi ve sağlık hizmetlerinde operasyonel verimlilik gibi şeyleri yapmaları için her türlü uygulamayı görüyoruz. Ve bu oldukça devam ediyor ve birçok farklı kullanım durumu var. Statistica'da burada gurur duyduğumuz şey, müşterimiz Shire Biopharmaceuticals. Shire, tedavisi zor hastalıklar için özel ilaçlar yapar. Ve müşterileri için ilaçlarının bir parti oluşturduklarında, bu çok pahalı bir süreçtir ve bu çok pahalı süreç de zaman alır. Gördüğünüz gibi bir üretim sürecini düşündüğünüzde zorlukların tüm veriler üzerinde birleşmesi, verileri sisteme koymanın farklı yollarında yeterince esnek olması, bilgileri doğrulaması ve daha sonra bu müşteriye nasıl yardımcı olduğumuz konusunda tahminde olabilmemiz. Ve bilginin çoğunu üretim sistemlerimizden ve elbette bu üretim sistemlerini yönlendiren cihaz ve sensörlerden gelen süreçler. Ve şirketlerin sensör verilerini, IoT verilerini ve süreçlerinden düzenli verileri bir arada kullanarak kayıplardan kaçınma ve üretim süreçlerini nasıl optimize ettikleri için harika bir kullanım örneği.

Biliyorsunuz, imalatın ve özellikle yüksek teknolojili üretimin bu tür iş ve veri etrafında sağlık endüstrisine nereden yararlandığının iyi bir örneği. Sanırım tamamlayıp Dez ve Robin'e geri vermeden önce belirtmek istediğim birkaç nokta daha var. Ama biliyorsunuz, bence analitinizi çevrenizdeki herhangi bir yere itme fikri, çoğu şirket için son derece önemli olacak bir şey. Kaynaklardan merkezi konumlara geri giden geleneksel ETL veri verilerinin biçimine bağlı kalmak, stratejinizde her zaman bir yere sahip olacaktır, ancak tek stratejiniz olmamalıdır. Bugün olaylara çok daha esnek bir yaklaşım izlemelisiniz. Bahsettiğim güvenliği uygulamak için, ağınızın vergilendirilmesinden kaçının, verileri uçtan geldiğinde yönetip filtreleyebilmek ve uzun vadede hangi verilerin korunmaya değer olduğunu, hangi verilerin taşınmaya değer olduğunu belirleyin mümkün olduğunda en iyi kararları verebilmemiz için, hangi verilerin oluşturulduğu anda analiz edilmesi gerekiyor. Bu her yerde ve her yerde analitik yaklaşım, Statistica'da kalbe aldığımız ve çok yetkin olduğumuz bir şeydir. Ve daha önce bahsettiğim slaytlardan birine, modellerinizi çeşitli dillerde dışa aktarma yeteneğine geri dönüyor, böylece verilerin oluşturulduğu platformlarla eşleşip hizalanabiliyorlar. Ve sonra elbette bu modeller için bir dağıtım cihazına sahip olmak, bu da masaya getirdiğimiz ve çok heyecanlandığımız bir şey. Bence bugünkü konuşma, eğer sistemlerimizde bulunan bu veriler hakkında gerçekten çok uzun bir süre ciddileşeceksek ve bunu kullanmak için rekabet avantajı ve yenilikçi bir açı bulmak istiyorsak, geçmişte kullandığımız kısıtlayıcı modellerden bazılarından kurtulmanızı sağlayan bir teknoloji.

Yine, benim demek istediğim, IoT yapacaksanız, bunu çekirdeğinde yapabilmeniz ve verileri getirip diğer verilerle eşleştirip analitik yapmanız gerektiğini düşünüyorum. Ama aynı zamanda, aynı derecede önemli ya da daha da önemlisi, analitiği verilerle koymak ve analitiği bahsettiğim avantajlar için mimarinizin orta tarafından dışa taşımak için bu esnekliğe sahip olmalısınız. önce. Bu biraz kim olduğumuz ve pazarda ne yaptığımızla ilgili. IoT hakkında çok heyecanlıyız, kesinlikle yaşlandığını düşünüyoruz ve buradaki herkesin bu tür verilerle analizlerini ve kritik süreçlerini etkilemesi için büyük fırsatlar var.

Rebecca Jozwiak: Shawn, çok teşekkürler, bu gerçekten harika bir sunumdu. Ve biliyorum ki Dez muhtemelen sana birkaç soru sormak için ölüyor, bu yüzden Dez, önce gitmene izin vereceğim.

Dez Blanchfield: Milyonlarca sorum var ama kendimi içereceğim çünkü Robin'in da sahip olacağını biliyorum. Uzakta gördüğüm şeylerden biri, ortaya çıkan bir soru ve işlerin tam kalbinde olduğunuz göz önüne alındığında, bu konudaki deneyiminiz hakkında bir fikir edinmeye gerçekten hevesliyim. Örgütler meydan okuma ile mücadele ediyor ve bazıları Klaus Schwab'ın “Dördüncü Sanayi Devrimi” nin beğenilerini okuduktan sonra panik atak geçirdi. Ve bu kitaba aşina olmayanlar, aslında beyler tarafından, Dünya Ekonomik Forumu'nun kurucusu ve İcra Kurulu Başkanı olan Klaus Schwab'ın bellekten bir içgörü ve kitabın aslında tüm bu şeylerin her yerde internet patlaması ve genel olarak dünya üzerindeki bazı etkileri. Konuştuğum kuruluşlar, mevcut ortamın yenilenip yenilenmeyeceklerinden ya da tüm yeni ortam, altyapı ve platformların inşasına her şeyi yatıracaklarından emin değiller. Dell Statistica'da, insanların mevcut ortamları güçlendirdiğini ve platformunuzu mevcut altyapıya yerleştirdiğini mi görüyorsunuz, yoksa bunların odaklarını tüm yeni altyapıları inşa etmeye ve bu siper için hazırladıklarını mı görüyorsunuz?

Shawn Rogers: Bildiğiniz gibi, her iki müşteri türüne de hizmet etme fırsatımız oldu ve sahip olduğumuz sürece pazarda bulunma, bu fırsatları bir çeşit genişleme fırsatı elde edersiniz. Son birkaç yılda yepyeni fab tesisleri yaratan ve bu süreç boyunca sensör verileri, IoT, analitik, uçtan uca donatılarak donatılmış müşterilerimiz var. Ancak, müşterilerimizin çoğunun bir süredir bu tür işleri yapan ancak bu verileri görmezden gelmeye zorlanan insanlar olduğunu söylemeliyim. Biliyor musun, Rebecca bu noktayı en ön plana çıkardı - bu yeni bir veri değil, bu tür bilgiler çok uzun bir süredir birçok farklı formatta mevcuttu, ancak sorunun nereye bağlandığı, hareket ettirerek, onunla akıllıca bir şeyler yapabileceğiniz bir yere getirin.

Bu nedenle, müşterilerimizin çoğunun bugün sahip olduklarına baktıklarını söyleyebilirim ve Dez, daha önce bu noktayı söylediniz, bu büyük veri devriminin bir parçası ve bence asıl şey, hepsi hakkında veri devrimi, değil mi? Artık belirli sistem verilerini veya üretim verilerini veya bina otomasyonu verilerini görmezden gelmek zorunda değiliz, şimdi onu almak ve ardından akıllı şeyler yapmak için doğru oyuncaklara ve araçlara sahibiz. Ve bence bu alanda bunu gerçekleştiren birçok sürücü var ve bazıları teknolojik. Bildiğiniz gibi, Hadoop ve diğerleri gibi büyük veri altyapısı çözümleri, bazılarımız için bu tür bir bilgi gölü oluşturmayı düşünmeyi biraz daha ucuz ve biraz daha kolay hale getirdi. Ve şimdi, “Hey, üretim sürecimizde analitik var, ama bu süreçlerden bir fikir ekleyebilirsek, geliştirilecekler mi?” Diye bakıyoruz. Ve bu, bence, çoğu müşterilerimiz yapıyor. Baştan sona çok fazla yaratma değil, zaten sahip oldukları analitiği kendileri için yeni olan verilerle arttırmak ve optimize etmek.

Dez Blanchfield: Evet, gördüğümüz en büyük endüstrilerden bazılarında heyecan verici şeyler var ve bahsettiğiniz güç ve hizmetlerden bahsettiniz. Havacılık, düzenli olarak bahsettiğim tüm zamanların en sevdiğim cihazlarından biri olan Boeing 787 Dreamliner ve kesinlikle Airbus eşdeğeri olan A330'un aynı rotaya indiği bu patlamadan geçiyor. İlk piyasaya çıktığında 787'de altı bin sensör vardı ve sanırım şimdi yeni versiyonunda on beş bin sensörden bahsediyorlar. Ve o dünyadaki bazı halklarla konuşmanın ilginç yanı, sensörleri kanatlara vb. Koyma fikrinin ve bir tasarım platformunda 787 ile ilgili şaşırtıcı olan şey, bilirsiniz, uçak. Kanatlar gibi, örneğin, uçak kalktığında kanatlar on iki buçuk metreye kadar esner. Ancak uçlarda kanatlar uçta 25 metreye kadar esneyebilir. Bu şey kuş çırpıyor gibi görünüyor. Ancak düzeltmek için zamanları yoktu, tüm bu verilerin analitik mühendisliğiydi, bu yüzden kötü bir şey olursa LED'lerin yeşil ve kırmızı yanıp sönmesini sağlayan sensörlere sahipler, ancak aslında gerçek zaman. Ayrıca, veri hacminin nasıl taşınacağı sorununu da çözmediler çünkü ABD'deki iç hava sahasında günlük olarak 87.400 uçuş var. Her uçak 787 Dreamliner satın almasıyla yakalandığında, günde 43 petabayt veri, çünkü bu uçaklar şu anda her biri yaklaşık yarım terabayt veri üretiyor. Ve ABD'de günde 87.400 uçuşu beş veya yarım terabayt puan ile çarptığınızda, 43, 5 petabayt veri elde edersiniz. Bunu fiziksel olarak hareket ettiremeyiz. Bu yüzden tasarım gereği analitiği cihaza aktarmamız gerekiyor.

Ama tüm bu mimariye baktığımda ilginç olan şeylerden biri - ve bunun hakkında ne düşündüğünüzü görmeye hevesliyim - ana veri yönetimine, bir çeşit veri yönetiminin ilk prensiplerine, merkezi bir konuma her şey. Veri göllerimiz var ve daha sonra, analitik yaptığımızdan, ancak özellikle veritabanı çalışanlarından ve veri yöneticilerinden gelmeye devam eden şeylerden biri olan, uç noktalara dağıtarak, isterseniz küçük veri havuzları oluşturuyoruz. ya da bilgi yönetimi işindeki insanlar, çok sayıda dağıtılmış küçük minyatür veri gölüm olduğunda ne olur? Çözümünüzdeki uç analitik konusunda bu düşünceye ne tür şeyler uygulandı, geleneksel olarak her şey veri gölüyle merkezi olarak gelecektir, şimdi her yerde bu küçük veri birikintileriyle sonuçlanıyoruz ve yerel bir fikir edinmek için yerel olarak analiz gerçekleştirin, karşılaştığınız zorluklardan bazıları ve bunu nasıl çözdüğünüz, bu dağıtılmış veri kümesine sahip olduğunuzda ve özellikle veri göllerinin ve dağıtılmış alanların mikro kozmosunu aldığınızda?

Shawn Rogers: Sanırım bu zorluklardan biri, değil mi? Uzaklaştıkça, biliyorsunuz, tüm verileri merkez konuma veya verdiğim temel analitik örneğe geri götürüyoruz ve sonra dağıtılmış versiyonu yapıyoruz, tüm bu küçük silolarla bitiriyorsunuz, değil mi? Tam tasvir ettiğiniz gibi, değil mi? Biraz iş yapıyorlar, bazı analitikler çalışıyor, ancak bunları nasıl bir araya getireceksiniz? Ve bence anahtar, tüm bunlar için düzenleme olacak ve bence benimle aynı fikirde olacaksınız, ama eğer yapmazsanız mutluyum, bence bu evrimi oldukça izliyoruz bazen.

Erken veri ambarı yatırımlarının mimarisi ile herkese yardımcı olan arkadaşlarımız Bay Inmon ve Bay Kimball'ın günlerine dönersek, bu merkezi modelden uzun zamandır uzaklaştığımız nokta. Verilerin, ekosisteminizin içinde en iyi nerede olması gerektiği konusunda yerçekimini göstermesine izin vermek ve verileri mümkün olan en iyi sonuç için mümkün olan en iyi platformla hizalamak için bu yeni fikri kabul ettik. Ve sanırım, tüm bu parçaları aynı anda hizalamaya çalıştığımız gibi, bir şeyler yapmanın kapsayıcı bir yolu olarak ekosistemimize daha düzenli bir yaklaşım yapmaya başladık. Verilerle ne tür bir analitik veya iş yapacağım, ne tür veriler olduğunu, nerede yaşaması gerektiğini belirlemeye yardımcı olacak. Nerede üretiliyor ve veriler ne tür bir çekim gücüne sahip?

İnsanların 10- ve 15 petabayt veri göllerine sahip olmaktan bahsettikleri bu büyük veri örneklerinin çoğunu görüyoruz. Eğer bu kadar büyük bir veri gölünüz varsa, onu taşımanız çok pratik değildir ve bu nedenle ona analitik getirmeniz gerekir. Ancak bunu yaptığınızda, sorunuzun özüne göre, herkesin çevreyi yönetmesi, yönetişim ve güvenlik uygulaması ve bu verileri iyileştirmek ve bu verileri kullanarak neler yapması gerektiğini anlamak için birçok yeni zorluğu beraberinde getirdiğini düşünüyorum. en yüksek değeri elde edin. Ve size karşı dürüst olmak gerekirse - burada görüşlerinizi duymak isterim - Sanırım orada erken günleriz ve sanırım daha yapılacak çok iş var. Bence Statistica gibi programlar daha fazla insana verilere erişim sağlamaya odaklanıyor. Kesinlikle kuruluş içinde daha önce bulunmayan yerlere tahmine dayalı analiz yapmak isteyen vatandaş veri bilimcisi gibi bu yeni kişilere odaklandık. Ve bence bunlar bunun ilk günlerinden bazıları, ancak bence olgunluk yayının bu platformlar arasında yüksek düzeyde bir orkestrasyon ve uyum ve bunların üzerinde ve nedenlerinin ne olduğunu anlaması gerekecek. Ve bu, hepimiz veri insanları için eski bir sorundur.

Dez Blanchfield: Gerçekten de bu konuda seninle tamamen aynı fikirdeyim ve bugün burada duyduğumuz en iyi şey, en azından ağ geçidi düzeyinde verileri yakalama sorununun en azından ön ucu olduğunu düşünüyorum ve bu noktada analitik yapabilme özelliği şimdi çözülmüştür. Ve şimdi bizi, veri gölleri dağıtılmış olan bir sonraki zorluk hakkında düşünmeye başlamak için serbest bırakıyor. Bunun için çok teşekkür ederim, harika bir sunumdu. Bu konuda sizinle sohbet etme şansını gerçekten takdir ediyorum.

Şimdi Robin'e geçeceğim çünkü bildiğini biliyorum, ve sonra Rebecca'nın Robin'den sonra seyircilerden uzun bir soru listesi var. Robin?

Dr. Robin Bloor: Tamam. Shawn, biraz daha söylemeni istiyorum ve sana reklam yapma şansı vermeye çalışmıyorum, ama aslında çok önemli. Statistica'nın gerçekte hangi noktada model verme yeteneğini ürettiğini bilmekle ilgileniyorum. Ama ben de, Boomi hakkında bir şeyler söylemenizi istiyorum, çünkü Boomi hakkında şimdiye kadar söylediğin tek şey ETL olması ve gerçekten ETL. Ama aslında oldukça yetenekli ETL ve bahsettiğimiz tür zamanlamalar için ve burada tartıştığımız bazı durumlar için bu çok önemli bir şey. Benim için bu iki şeyle konuşabilir misin?

Shawn Rogers: Tabii, evet, kesinlikle yapabilirim. Bilirsiniz, bu yöndeki hareketimiz kesinlikle yinelemeliydi ve bu adım adım bir süreçti. Önümüzdeki hafta Statistica Sürüm 13.2'yi piyasaya sürmeye hazırlanıyoruz. Ve bugün bahsettiğimiz tüm yeteneklerin en yeni güncellemelerine sahip. Ancak bir yıl önce Ekim 13'e dönersek, platformumuzdan modelleri dışa aktarma yeteneğimizi duyurduk ve o zamanlar NDAA olarak adlandırdık. Kısaltma, Yerel Dağıtılmış Analytics Mimarisi anlamına geliyordu. Yaptığımız şey, platformumuzu gelişmiş analitikleriniz için merkezi bir komuta merkezi olarak kullanma fırsatıyla ve aynı zamanda oradan da konuşlandırmak için açmaya çok fazla zaman, enerji ve odaklanmak. Ve konuşlandırdığımız ilk yerler Robin, makine öğrenimi etrafındaki platforma gerçekten ama gerçekten harika bir ek yaptık. Ve böylece bildiğiniz gibi, çok yoğun olan ve bulut teknolojilerini kullanmak için harika bir yol olan Azure'un gücünü makine öğreniminde kullanmak için Statistica'dan Microsoft'un Azure Cloud'a dağıtma yeteneğine sahibiz. Ve bu ilk bitti.

Şimdi burada modellerimizi Azure'a aktarıyorduk ve bunları çalıştırmak için Azure'u kullandık ve ardından verileri veya sonuçları Statistica platformuna geri gönderdik. Ve sonra ihracat yapmak istediğimiz diğer dillere geçtik ve elbette bunlardan biri Java olmak, şimdi modellerimizi Hadoop gibi diğer yerlere dışa aktarmaya başlamamız için kapıyı açıyor, bu yüzden verdi orada da bir oyun.

Son olarak, bu sürümle birlikte modellerimizi veri tabanlarına çıkarabilmeye odaklandık. Ve bu ilk yinelemeydi ve size karşı dürüst olmak gerekirse, son oyun IoT idi, ancak geçen Ekim 13 sürümünde henüz tam olarak orada değildik. O zamandan beri oraya vardık ve bunun az önce bahsettiğim her şeyi yapabilme, ancak bir tür taşıma cihazına sahip olma ile ilgisi var. Ve Dez'in sorusuna geri dönersek, bilirsiniz, zorluk nedir ve tüm bu analizler bittiğinde bunu nasıl yaparız? Boomi'yi bir dağıtım merkezi olarak kullanıyoruz ve bu yüzden bulutta olduğu ve daha önce de belirttiğim gibi çok güçlü olduğu için bir veri entegrasyon platformu, ama aynı zamanda bir uygulama entegrasyon platformu ve bize izin vermek için JVM'ler kullanıyor Java sanal makinesini kullanabileceğiniz herhangi bir yere park etmek ve çalışmak. Tüm bu ağ geçitleri ve kenar bilgi işlem platformları ve kenar sunucuları için kapıyı gerçekten açtığı şey buydu, çünkü hepsinde JVM'yi çalıştırmak için kullanılabilen hesaplama ve platform var. Ve JVM'yi her yerde çalıştırabildiğimiz için, Boomi döndü harika bir dağıtım ve daha önceki sözlerimi kullanarak bir orkestrasyon cihazı.

Ve bu gerçekten önemli hale geliyor, çünkü hepimiz biliyorsunuz, sanırım bir dakika önce uçak senaryosu harika bir şeydi ve bilirsiniz, Shire gibi fabrikalarından birinde on bin sensöre sahip üreticilerden bahsettiniz, bir noktada gelişmiş analitiklere yönelik merkezi yaklaşımın ele alınmasına başlamalıdır. Bu konuda geçici olmak artık işe yaramıyor. Çalıştığımız modellerin ve algoritmaların hacminin minimum olduğu zamanlardı, ancak şimdi maksimum. Bir örgütte binlerce kişi var. Platformumuzun bir kısmı sunucu tabanlıdır ve kurumsal yazılımımız olduğunda, çevre üzerinde modellerinizi değiştirebilir, puanlayabilir ve yönetebilirsiniz. Ve bu da o düzenleme olayının bir parçası. Bir katmana ihtiyacımız vardı, Robin, ilk etapta orada bir model almanıza izin vermekle kalmadı, aynı zamanda modelleri değiştirip gerektiğinde sürekli olarak değiştirmenizi sağlayan bir kanal verdi, çünkü bu elle yapabileceğiniz bir şey değil. Ağ geçitlerine modeller yüklemeye çalışan bir başparmak sürücüsüyle rafineride dolaşamazsınız. Aralarında bir ulaşım ve yönetim sistemine sahip olmanız gerekir ve bu nedenle Statistica ve Boomi kombinasyonu bunu müşterilerimize verir.

Dr. Robin Bloor: Evet. Çok kısaca olacağım, ama bilirsiniz, daha önce veri gölü ve herhangi bir yerde petabayt biriktirme fikri ve yerçekimi olduğu gerçeği hakkında. Bilirsiniz, orkestrasyon hakkında konuşmaya başladığınızda, sadece çok büyük bir veri gölünün tek bir yere yerleştirilmesi muhtemelen onu aslında desteklemeniz gerektiği ve muhtemelen zaten birçok veriyi taşımak zorundasınız. Biliyorsunuz, gerçek veri mimarisi çok daha fazla, bence zaten, daha çok konuştuğunuz yönde. Bunu mantıklı yerlere dağıtmak, muhtemelen söyleyeceğim şeydir. Ve bunu yapmak için çok iyi bir yeteneğiniz var gibi görünüyor. Demek istediğim, Boomi hakkında çok bilgilendirildim, bu yüzden şu ya da bu şekilde, onu görebildiğim ve belki de seyircinin göremeyeceği neredeyse adil değil. Ancak Boomi, bence, yaptığınız şey açısından çok önemli çünkü uygulama yeteneklerine sahip. Ve ayrıca, işin gerçeği, bu analitik hesaplamaları herhangi bir nedenden ötürü bir yere eylemde bulunmak istemeden yapmamanızdır. Ve Boomi de bu konuda rol oynuyor, değil mi?

Shawn Rogers: Evet, kesinlikle. Ve böylece önceki konuşmalardan bildiğiniz gibi, Statistica'nın içinde tam bir iş kuralları motoru var. Ve bunu neden yaptığımıza inandığımızda bunun gerçekten önemli olduğunu düşünüyorum. Bilirsiniz, analiz edip verileri daha iyi kararlar almak veya işlem yapmak için kullanmayacaksanız IoT'yi yapmak için gerçekten hiçbir neden olmadığını öne sürdüm. Ve bu yüzden odaklandığımız sadece modeli ortaya koymak değil, onunla birlikte etiketleyebilmekti, bir kural seti. Ve Boomi, işleri bir yerden bir yere taşıma kabiliyetleri konusunda çok sağlam olduğu için, bir Boomi atomu içinde tetikleme, uyarma ve harekete geçme yeteneğini de yerleştirebiliriz.

İşte bu noktada, “Tamam, bu veriler dinlemeye değer” dediğimiz IoT verilerinin bu tür sofistike bir görünümünü elde etmeye başlıyoruz. Ama gerçekten, bilirsiniz ki, “ışık açık, ışık açık, ışık yanıyor, ışık yanıyor ”, ışığın ne zaman söndüğü veya duman dedektörünün ne zaman söndüğü veya üretim sürecimize ne olursa olsun teknik özelliklerin dışında kalması kadar ilginç değildir. Bu meydana geldiğinde, hemen harekete geçebilmek istiyoruz. Ve veriler bu noktada neredeyse ikincil hale geliyor. Bunların hepsini kurtarmamız o kadar önemli değil, “sorun değil, sorun yok, sorun yok” sinyalleri, önemli olan “Hey, bu kötü” yi fark etmemiz ve hemen harekete geçtik. Birisine e-posta gönderip göndermediği veya alan uzmanlığı dahil edip edemeyeceğimiz veya düzeltici veya bilgiye yanıt olarak hemen harekete geçmek için bir dizi başka işlem yapıp yapmadığımız. Ve bence bu yüzden bu düzenli görüşe sahip olmalısınız. Sadece algoritmalarınızı her yerde ele almaya odaklanamazsınız. Onları koordine edebilmeli ve düzenleyebilmelisiniz. Nasıl performans gösterdiğini görebilmeniz gerekir. Ve gerçekten, en önemlisi, veriye karşı hemen harekete geçme fırsatını ekleyemiyorsanız neden bunu yapıyorsunuz?

Robin Bloor: Tamam, Rebecca, seyirciden sorularınız olduğuna inanıyorum?

Rebecca Jozwiak: Evet. Bir ton izleyici sorum var. Shawn, saatin çok ötesine takılmak istemediğini biliyorum. Ne düşünüyorsun?

Shawn Rogers: Mutluyum. Devam et. Birkaç cevap verebilirim.

Rebecca Jozwiak: Bir bakalım. Bahsettiğiniz şeylerden birinin, IoT'nin ilk günlerde olduğunu ve gerçekleşmesi gereken bir olgunluk derecesi olduğunu ve bir katılımcının sorduğu bu soruya bir tür söz verdiğini biliyorum. IPv6 çerçevesi önümüzdeki beş veya on yıl içinde IoT'nin büyümesini karşılayacak kadar sağlam olacaksa?

Shawn Rogers: Oh, Dez'in cevabımı yankılamasına izin vereceğim çünkü bence bu tür bilgilere daha yakın. Ama her zaman, var olan çerçevelerin çoğunu bükmek ve kırmak için çok hızlı bir yolda olduğumuz düşüncesindeydim. Ve bu yeni tür özelliklerin eklenmesi ya da IPv6 çerçeveleri ile gideceğimiz yönün önemli olduğunu düşünüyorum ve çok daha fazla cihaza sahip olmamız ve her şeyi verebilmemiz için kapıyı açıyor adres vermek istiyorum. Müşterilerimle okuduğum ve gördüğüm her şeyin ve gerekli adres sayısının, bir noktada o manzarada başka bir değişikliğe neden olacağını düşünüyorum. Ama gerçekten bir ağ uzmanı değilim, bu yüzden bir noktada kıracağımızı yüzde yüz söyleyemem. Ama tecrübelerim bana bu modeli bir noktada bozacağımızı söylüyor.

Rebecca Jozwiak: Şaşırmazdım . Bence çerçeveler her türlü şeyin ağırlığı altında kırılıyor. Ve bu sadece mantıklı, değil mi? Yani, daktilo ile e-posta gönderemezsiniz. Başka bir katılımcı “Hadoop çerçevesini kullanabilir misiniz?” Diye soruyor ama sanırım bunu dağıtmak için bir Hadoop çerçevesini nasıl kullanırsınız?

Shawn Rogers: Robin bana tarihsel bir soru sorma lehine bir şey yaptı ve bu yüzden Statistica için yaklaşık bir yıl önce Sürüm 13'ten beri modelleri sistemimizden ve Hadoop'a çıkarma yeteneğine sahibiz. Ve Hadoop'un tüm büyük lezzetleriyle çok yakın çalışıyoruz. Birlikte çalıştığımız ana Hadoop dağıtımlarından biri olarak Cloudera ile çalışma yeteneği hakkında gerçekten büyük başarı öykülerimiz var. Ancak Java'da çıktı alabileceğimiz için bize bu açıklık ve analizlerimizi her yere yerleştirme yeteneği kazandırır. Bunları bir Hadoop kümesine yerleştirmek, birçok müşterimiz için normal ve düzenli ve günlük olarak yaptığımız bir şeydir. Kısa cevap evet, kesinlikle.

Rebecca Jozwiak: Mükemmel. Ve sana bir tane daha atacağım ve tatiline devam etmene izin vereceğim. Başka bir katılımcı, IoT analytics ve makine öğrenimi ile tüm verilerin tarihsel amaçlar için saklanması gerektiğini ve bunun çözüm mimarisini nasıl etkileyeceğini düşünüyor.

Shawn Rogers: Bütün verilerin saklanması gerektiğini düşünmüyorum. Ancak, kuruluşumuzda istediğimiz herhangi bir veri kaynağını nereden olursa olsun eğlendirme, dinleme yeteneğine sahip olmanın çok ilginç olduğunu düşünüyorum. Son birkaç yıldır piyasada gördüğümüz değişikliklerin, bu tüm veri yaklaşımını şeylere götürmemizi sağladığını düşünüyorum ve bu gerçekten işe yarayacak gibi görünüyor. Ancak her şirket ve her kullanım durumu için farklı olacaktır. Biliyorsunuz, sağlık verilerine baktığımızda, artık birçok düzenleyici sorun, endişe edilecek çok sayıda uyumluluk sorunu var ve bu da bizi diğer şirketlerin neden kaydedilmesi gerektiğini anlayamayabileceği verileri kaydettiriyor, değil mi? ? Üretim süreçlerinde, birçok üretim müşterimiz için, süreçlerinizi tarihsel olarak inceleyebilmek ve onlardan öğrenmek ve ondan daha iyi modeller oluşturmak için bu verilerin büyük miktarlarına geri dönebilmek için gerçek bir ters taraf vardır.

Birçok verinin saklanması gerektiğini düşünüyorum ve bugün bunu daha ekonomik ve ölçeklenebilir hale getiren çözümlerimiz olduğunu düşünüyorum. Ancak aynı zamanda her şirketin atom düzeyinde tutmak zorunda olmadıkları verilerde değer bulacağını düşünüyorum, ancak gerçek zamanlı bir şekilde analiz etmek ve içinde inovasyonu teşvik etmek için karar vermek isteyecekler. onların şirketi.

Rebecca Jozwiak: Tamam iyi. Hayır, seyirci, bugün herkesin sorularına ulaşmadım, ama onları Shawn'a ileteceğim, böylece sana doğrudan ulaşabilir ve bu soruları cevaplayabilir. Ama katıldığınız için herkese teşekkürler. Dell Statistica'dan ve tüm analistlerimiz Dez Blanchfield ve Dr. Robin Bloor'dan Shawn Rogers'a çok teşekkürler. Arşivi burada insideanalysis.com, SlideShare adresinde bulabilirsiniz, eşyalarımızı tekrar oraya koymaya başladık ve YouTube'umuzu yeniliyoruz, bu yüzden de orada da arayın. Çok teşekkürler millet. Ve bununla sana veda edeceğim ve bir dahaki sefere görüşürüz.

Son analitik: Sonunda çok ekonomik