Büyük veri, belli başlı karakter özellikleri ile tanımlanır: Hacim, Hız ve Çeşitlilik.
Hacim, ilgili veri kümelerinin büyüklüğünü ifade eder. Büyük veri zettabayt ve petaflop cinsinden ölçülür. En minimum olarak bahsedilen veri ise terabayt cinsinden olmalı.
Hız, sürekli büyümesini tanımlar. Bir üretim örneğini ele alırsak – gerçek zamanlı olarak ekipmanlardan gelen veri akışı, tüm makineler bağlıysa fabrika başına günde onlarca terabayt üretecektir.
Çeşitlilik, “büyük verinin” normal yöntemlerin bütünleştiremeyeceği birçok farklı veri türünden oluştuğu anlamına gelir. Örneğin, makine verisine ek olarak, harici sensör ve görüntü işleme sistemlerinden, ortama konulan ek sensörlerden veya farklı sistemler ile entegre olarak (ERP, PLM vb.) ortaya çıkan veri havuzu.
Bulut bilişimin de ortaya çıkmasıyla, büyük veriler ile çalışabilmek neredeyse herkes için mümkün hale geldi. Bu yapıya genellikle bir web tarayıcısı üzerinden ve nispeten düşük bir abonelik ücreti karşılığında erişmek artık mümkün.
Düzenli Analitik ve Büyük Veri Analitiği
Düzenli analitik ile büyük veri analitiği arasındaki farkı tespit etmek için, bu üç faktöre bakmak gerekiyor: hacim, hız ve çeşitlilik. Düzenli analitik, genellikle daha küçük, daha homojen veri kümeleriyle daha düşük hızlarda toplanan büyük veri analitiğine benzer paketler halinde gelir. Analitik çalışmalar için kullanılan veriler, bu üç özellikten biri veya ikisi için yüksek puan alabilir, ancak hepsi için değil. Büyük veri analitiğinin, özellikle de üçüncü özelliği olan çeşitlilik ile birleşimiyle daha iyi ifade edildiğini belirtmekte fayda bulunuyor.
Geleneksel veri işleme teknikleri genellikle yalnızca benzer verileri – örneğin sayılarla sayıları karşılaştırabilmekle sınırlandırılmıştır. Büyük veri analitiğinde kullanılan ön işleme yöntemleri, çok farklı veri türlerini almamızı ve karşılaştırmamızı sağlar. Big data – Büyük veri analitiğinin gücü de tam olarak buradan gelmektedir – çılgınca değişen veri kümelerindeki kalıpları ve eğilimleri belirler ve şaşırtıcı, önceden gizlenmiş içgörüler sağlar.
Üreticiler Büyük Veri Analizini Nasıl Kullanır?
Büyük veri analitiği, tüm bu verileri yararlı, eyleme geçirilebilir bilgiler halinde parçalara ayırma, ekleme ve paketleme sürecidir. Günümüzde bu, çoğunlukla, önden verilerin işlenmesi ile başlayan, çeşitli veri kümelerini entegre eden ve korelasyonları, modelleri ve eğilimleri arayan algoritmalar ile – genellikle makine öğrenimi yoluyla – yapılmaktadır. Bu daha sonra çalışanların değerlendirmesi, ek analizler yapılabilmesi için çizelgelere, grafiklere ve tablolara dönüştürülür. Google Analytics, bunun neye benzediğine dair güzel bir örnektir.
Üretim şirketleri için de ThingWorx büyük veri ve analiz platformu, işlenen verileri role özgü gösterge tablolarına paketler. Teknisyenler makinelerin durumuyla – belki de parçaların kullanım ömürlerine yaklaştığını anlamak için – ilgilenirken, operasyon yöneticileri üretim verimliliği ile daha çok ilgilenmektedir. Burada anahtar ayrım, aynı veriler ile her iki paydaş için de içgörü sağlanabilir. Verinin nasıl işlendiği ve hangi farklı veri çeşitleri ile harmanlanarak sunulduğu burada temel farkı yaratır.
Üretimde Büyük Veri Analizi İçin Sırada Ne Var?
Büyük veri analitiğinin ilk örnekleri, büyük ölçüde dijital olarak mevcut verilerle sınırlıydı. IoT, fiziksel dünyanın kapılarını aralarken, burada en çarpıcı örnekler imalat olarak gözüküyor. Üreticiler, makinelerinin önleyici bakımı için büyük veri analitiği ve IoT sensörlerini belirli bir süredir kullanıyor. Bu yapı, tabii ki gelişmesi gereken şimdilik sınırlı ve büyük veri analitiğinin çok dar bir kullanımı örneği.
Daha fazla işletme birbirine bağlı hale geldikçe ve büyük veri platformu genişledikçe, veriler şirketlerin her noktasından toplanacak, harmanlanacak ve analiz edilecektir. Geçmişteki alışkanlıkların aksine, örneğin müşteri hizmetlerine gelen geri bildirimler, üretim süreci öncesindeki tasarım seçimlerini etkileyecek. Üretim programları, tedarik zincirinden gelecek anlık bilgilere göre anında ayarlanacak. Tamamen yeni iş modelleri ortaya çıkarak daha önce farklı düzenlerde çalışan departmanların senkronize entegrasyonundan faydalar ortaya çıkacak.
Şimdilik, üretim şirketleri için bir sonraki adım, makinelere bakım yapmak için sadece kestirimci analitik kullanmaktan, tüm üretim ortamını analiz etmek olarak gözüküyor. Vardiya modellerini analiz ederek çalışanlar arasındaki yetenek farklarını ve ürün israfını azaltmak için yeni süreçleri dijital olarak planlamak iyi bir örnek sayılabilir.
Her zamankinden daha yalın üretim için büyük veri analitiğini kullanma hakkında daha fazla bilgi edinmek için PTC’nin sizlere sağladığı, Reinvent Lean Today with Digital Technology dokümanını ücretsiz indirebilir ve PTC’nin Dijital Üretim Çözümleri hakkında daha fazla bilgi edinmek için bizlere ulaşabilirsiniz.
Hakan Mete
SahaDX Kurucu Ortağı Hakan Mete’nin izniyle Akıllı Fabrikalar’da yayınlanmıştır.
SahaDX ile alakalı daha ayrıntılı bilgi için: https://sahadx.com/