TIBCO Spotfire: Big Data Analytics. Epektibong business intelligence at qualitative data analysis Paano makakuha ng customer data

Naa-access na trabaho sa Big Data gamit ang visual analytics

Pahusayin ang iyong katalinuhan sa negosyo at lutasin ang mga karaniwang problema gamit ang impormasyong nakatago sa Big Data gamit ang TIBCO Spotfire platform. Ito ang tanging platform na nagbibigay sa mga user ng negosyo ng intuitive, user-friendly na user interface na nagbibigay-daan sa kanila na gamitin ang buong hanay ng mga teknolohiya ng analytics ng Big Data nang walang paglahok ng mga espesyalista sa IT o espesyal na edukasyon.

Ang interface ng Spotfire ay ginagawang pantay na maginhawa upang gumana sa parehong maliliit na set ng data at multi-terabyte na cluster ng malaking data: mga pagbabasa ng sensor, impormasyon mula sa mga social network, mga punto ng pagbebenta o mga mapagkukunan ng geolocation. Madaling ma-access ng mga user ng lahat ng antas ng kasanayan ang mga insightful na dashboard at analytical na daloy ng trabaho sa pamamagitan lamang ng paggamit ng mga visualization, na mga graphical na representasyon ng bilyun-bilyong data point na pinagsama-sama.

Ang predictive analytics ay ang pag-aaral sa pamamagitan ng paggawa batay sa nakabahaging karanasan kumpanya upang gumawa ng mas matalinong mga desisyon. Gamit ang Spotfire Predictive Analytics, maaari kang tumuklas ng mga bagong trend sa merkado mula sa impormasyon ng business intelligence at gumawa ng mga hakbang upang mabawasan ang panganib, na magbibigay-daan sa iyong pagbutihin ang kalidad ng iyong mga desisyon sa pamamahala.

Balik-aral

Big Data Connectivity para sa High-Performance Analytics

Nag-aalok ang Spotfire ng tatlong pangunahing uri ng analytics na may tuluy-tuloy na pagsasama sa Hadoop at iba pang malalaking data source:

  1. On-Demand Analytics: Built-in, na-configure ng user na data connectors na nagpapadali sa napakabilis, interactive na visualization ng data
  2. Pagsusuri sa database (In-Database Analytics): pagsasama sa isang distributed computing platform na nagbibigay-daan sa iyong gumawa ng mga kalkulasyon ng data ng anumang kumplikado batay sa malaking data.
  3. Pagsusuri sa RAM(In-Memory Analytics): Pagsasama sa isang platform ng pagsusuri sa istatistika na direktang kumukuha ng data mula sa anumang data source, kabilang ang tradisyonal at bagong data source.

Magkasama, ang mga pamamaraan ng integration na ito ay kumakatawan sa isang malakas na kumbinasyon ng visual na paggalugad at advanced na analytics.
Nagbibigay-daan ito sa mga user ng negosyo na i-access, pagsamahin at pag-aralan ang data mula sa anumang data source sa pamamagitan ng makapangyarihan, madaling gamitin na mga dashboard at workflow.

Big Data Connectors

Sinusuportahan ng Spotfire Big Data Connectors ang lahat ng uri ng pag-access ng data: In-datasource, In-memory at On-demand. Kasama sa mga built-in na Spotfire data connectors ang:

  • Mga Certified Hadoop Data Connectors para sa Apache Hive, Apache Spark SQL, Cloudera Hive, Cloudera Impala, Databricks Cloud, Hortonworks, MapR Drill at Pivotal HAWQ
  • Kasama sa iba pang sertipikadong malalaking data connector ang Teradata, Teradata Aster at Netezza
  • Mga connector para sa makasaysayang at kasalukuyang data mula sa mga pinagmumulan gaya ng OSI PI touch sensors

In-Datasource distributed computing

Bilang karagdagan sa maginhawang functionality ng Spotfire para sa biswal na pagpili ng mga operasyon para sa mga query sa SQL na nag-a-access ng data na ipinamahagi sa mga pinagmumulan ng data, maaaring gumawa ang Spotfire ng mga algorithm ng istatistika at machine learning na gumagana sa mga pinagmumulan ng data at ibalik lamang ang mga kinakailangang resulta para sa paggawa ng mga visualization sa system ng Spotfire.

  • Gumagana ang mga user sa mga dashboard na may functionality ng visual selection na nag-a-access ng mga script gamit ang mga built-in na kakayahan ng TERR na wika,
  • Pinasimulan ng mga TERR script ang gawain ng distributed computing functionality sa pakikipag-ugnayan sa Map/Reduce, H2O, SparkR, o Fuzzy Logix,
  • Ang mga application na ito naman ay nag-a-access ng mga system na may mataas na kahusayan tulad ng Hadoop o iba pang mapagkukunan ng data,
  • Maaaring i-deploy ang TERR bilang isang advanced na analytics engine sa mga Hadoop node na pinamamahalaan gamit ang MapReduce o Spark. Ang wikang TERR ay maaari ding gamitin para sa mga node ng data ng Teradata.
  • Ang mga resulta ay nakikita sa Spotfire.

TERR para sa advanced na analytics

TIBCO Enterprise Runtime for R (TERR) – Ang TERR ay isang enterprise-grade statistical package na binuo ng TIBCO upang maging ganap na tugma sa wikang R, na ginagamit ang mga dekada ng karanasan sa analytics ng kumpanya na nauugnay sa S+. Nagbibigay-daan ito sa mga customer na magpatuloy sa pagbuo ng mga application at modelo hindi lamang gamit ang bukas na R code, kundi pati na rin upang isama at i-deploy ang kanilang R code sa isang komersyal na matatag na platform nang hindi kinakailangang muling isulat ang kanilang code. Ang TERR ay may mas mataas na kahusayan at maaasahang pamamahala ng memorya, nagbibigay ng higit pa mataas na bilis pagpoproseso ng malalaking volume ng data kumpara sa open source na wikang R.

Pinagsasama ang lahat ng pag-andar

Ang kumbinasyon ng nabanggit na makapangyarihang functionality ay nangangahulugan na kahit para sa mga pinakakumplikadong workload na nangangailangan ng lubos na maaasahang analytics, ang mga user ay nakikipag-ugnayan sa mga simple, madaling gamitin na interactive na daloy ng trabaho. Nagbibigay-daan ito sa mga user ng negosyo na makita at masuri ang data, at magbahagi ng mga resulta ng analytics, nang hindi kinakailangang malaman ang mga detalye ng arkitektura ng data na pinagbabatayan ng pagsusuri sa negosyo.

Halimbawa: Spotfire interface para sa pag-configure, pagpapatakbo, at pag-visualize ng mga resulta ng isang modelo na nagpapakita ng nawalang kargamento. Gamit ang interface na ito, maaaring magsagawa ng mga kalkulasyon ang mga user ng negosyo gamit ang TERR at H2O (distributed computing framework) sa pamamagitan ng pag-access sa data ng transaksyon at pagpapadala na nakaimbak sa mga cluster ng Hadoop.

Malaking Data Analytics Space


Advanced at predictive na analytics

Gumagamit ang mga user ng mga dashboard ng Spotfire na may functionality ng visual selection para maglunsad ng maraming advanced na kakayahan na nagpapadali sa paghula, paggawa ng mga modelo, at pag-optimize ng mga ito sa mabilisang paraan. Gamit ang malaking data, maaaring isagawa ang pagsusuri sa loob ng data source (In-Datasource), na ibinabalik lamang ang pinagsama-samang impormasyon at mga resultang kailangan para gumawa ng mga visualization sa platform ng Spotfire.


Pag-aaral ng makina

Available ang malawak na hanay ng mga tool sa pag-aaral ng makina sa listahan ng mga built-in na feature ng Spotfire na magagamit sa isang pag-click. May access ang mga statistician sa program code na nakasulat sa R ​​language at maaaring palawakin ang functionality na ginamit. Maaaring ibahagi ang functionality ng machine learning sa ibang mga user para sa madaling muling paggamit.

Available sumusunod na pamamaraan machine learning para sa tuluy-tuloy na kategoryang variable sa Spotfire at TERR:

  • Linear at logistic regression
  • Mga puno ng desisyon, Random na algorithm ng kagubatan, Gradient boosting machine (GBM)
  • Generalized linear (additive) na mga modelo ( Mga Pangkalahatang Additive na Modelo)
  • Mga neural network


Pagsusuri ng Nilalaman

Nagbibigay ang Spotfire ng analytics at visualization ng data, karamihan sa mga ito ay hindi pa nagagamit dati - ito ay hindi nakabalangkas na text na nakaimbak sa mga mapagkukunan gaya ng mga dokumento, ulat, tala CRM system, mga log ng website, mga publikasyon sa mga social network at marami pang iba.


Pagsusuri ng lokasyon

Multilayer na mga mapa mataas na resolution ay isang mahusay na paraan upang mailarawan ang malaking data. Nagbibigay-daan sa iyo ang rich map functionality ng Spotfire na lumikha ng mga mapa na may pinakamaraming reference at functional na layer hangga't kailangan mo. Binibigyan ka rin ng Spotfire ng kakayahang gumamit ng sopistikadong analytics habang nagtatrabaho sa mga mapa. Bilang karagdagan sa mga mapa ng heograpiya ang system ay lumilikha ng mga mapa upang mailarawan ang gawi ng user, mga bodega, produksyon, mga hilaw na materyales at marami pang ibang indicator.

Napakaraming usapan at napakaraming tungkol sa pagsusuri ng impormasyon kamakailan na maaaring maging ganap na malito ang isa tungkol sa problema. Buti na lang maraming nakakapansin dito kasalukuyang paksa. Ang tanging masamang bagay ay na sa pamamagitan ng terminong ito ay nauunawaan ng lahat kung ano ang kailangan nila, madalas na walang pangkalahatang larawan ng problema. Ang pagkapira-piraso sa diskarteng ito ay nagdudulot ng kakulangan sa pag-unawa sa kung ano ang nangyayari at kung ano ang gagawin. Ang lahat ay binubuo ng mga piraso na maluwag na konektado sa isa't isa at walang karaniwang core. Marahil ay madalas mong narinig ang pariralang "patchwork automation". Maraming mga tao ang nakatagpo ng problemang ito nang maraming beses bago at maaaring makumpirma na ang pangunahing problema sa diskarte na ito ay halos hindi posible na makita ang malaking larawan. Ang sitwasyon ay katulad ng pagsusuri.

Upang maunawaan ang lugar at layunin ng bawat mekanismo ng pagsusuri, tingnan natin ang lahat sa kabuuan nito. Magsisimula tayo sa kung paano gumawa ng mga desisyon ang isang tao, dahil hindi natin maipaliwanag kung paano isinilang ang isang kaisipan; Ang unang pagpipilian ay ang gumagawa ng desisyon (DM) ay gumagamit lamang ng computer bilang isang paraan ng pagkuha ng data, at nakakakuha ng mga konklusyon nang nakapag-iisa. Upang malutas ang ganitong uri ng problema, ginagamit ang mga sistema ng pag-uulat, pagsusuri ng multidimensional na data, mga tsart at iba pang paraan ng visualization. Pangalawang pagpipilian: hindi lamang kinukuha ng programa ang data, ngunit nagsasagawa din ng iba't ibang uri ng preprocessing, halimbawa, paglilinis, pagpapakinis, atbp. At inilalapat nito ang mga mathematical na pamamaraan ng pagsusuri sa data na naproseso sa ganitong paraan - clustering, classification, regression, atbp. Sa kasong ito, ang gumagawa ng desisyon ay tumatanggap ng hindi raw, ngunit lubos na naproseso na data, i.e. gumagana na ang isang tao sa mga modelong inihanda ng isang computer.

Dahil sa ang katunayan na sa unang kaso, halos lahat ng bagay na may kaugnayan sa mga mekanismo ng paggawa ng desisyon mismo ay ipinagkatiwala sa isang tao, ang problema sa pagpili ng isang sapat na modelo at pagpili ng mga pamamaraan sa pagproseso ay kinuha lampas sa mga limitasyon ng mga mekanismo ng pagsusuri, ibig sabihin, ang Ang batayan para sa paggawa ng desisyon ay alinman sa isang pagtuturo (halimbawa, kung paano maipapatupad ang mga mekanismo para sa pagtugon sa mga paglihis), o intuwisyon. Sa ilang mga kaso, ito ay sapat na, ngunit kung ang gumagawa ng desisyon ay interesado sa kaalaman na matatagpuan medyo malalim, kaya upang magsalita, kung gayon ang simpleng mga mekanismo ng pagkuha ng data ay hindi makakatulong dito. Kinakailangan ang mas seryosong pagproseso. Ito ang pinaka pangalawang kaso. Ang lahat ng inilapat na mekanismo ng preprocessing at pagsusuri ay nagbibigay-daan sa gumagawa ng desisyon na magtrabaho sa mas mataas mataas na antas. Ang unang opsyon ay angkop para sa paglutas ng mga problema sa taktikal at pagpapatakbo, at ang pangalawa ay para sa pagkopya ng kaalaman at paglutas ng mga estratehikong problema.

Ang mainam na kaso ay ang magamit ang parehong mga diskarte sa pagsusuri. Nagbibigay-daan sa iyo ang mga ito na sakupin ang halos lahat ng pangangailangan ng isang organisasyon para sa pagsusuri ng impormasyon ng negosyo. Sa pamamagitan ng pag-iiba-iba ng mga diskarte depende sa mga gawain, magagawa naming i-squeeze ang maximum na magagamit na impormasyon sa anumang kaso.

Ang pangkalahatang pamamaraan ng trabaho ay ibinigay sa ibaba.

Kadalasan, kapag naglalarawan ng isang produkto na nagsusuri ng impormasyon ng negosyo, ginagamit ang mga termino tulad ng pamamahala sa peligro, pagtataya, segmentasyon ng merkado... Ngunit sa katotohanan, ang paglutas ng bawat isa sa mga problemang ito ay bumababa sa paggamit ng isa sa mga pamamaraan ng pagsusuri na inilarawan sa ibaba. Halimbawa, ang pagtataya ay isang problema sa regression, ang segmentasyon ng merkado ay clustering, ang pamamahala sa peligro ay isang kumbinasyon ng clustering at pag-uuri, at iba pang mga pamamaraan ay posible. Samakatuwid, ang hanay ng mga teknolohiyang ito ay nagbibigay-daan sa amin upang malutas ang karamihan sa mga problema sa negosyo. Sa katunayan, ang mga ito ay atomic (basic) na mga elemento kung saan ang solusyon sa isang partikular na problema ay binuo.

Ngayon ay ilalarawan namin ang bawat fragment ng circuit nang hiwalay.

Ang pangunahing mapagkukunan ng data ay dapat na mga database ng mga sistema ng pamamahala ng negosyo, mga dokumento ng opisina, at Internet, dahil kinakailangang gamitin ang lahat ng impormasyon na maaaring maging kapaki-pakinabang para sa paggawa ng desisyon. At saka pinag-uusapan natin hindi lamang tungkol sa impormasyong panloob sa organisasyon, kundi pati na rin tungkol sa panlabas na data (mga macroeconomic indicator, kapaligirang mapagkumpitensya, data ng demograpiko, atbp.).

Kahit na ang data warehouse ay hindi nagpapatupad ng mga teknolohiya sa pagsusuri, ito ang batayan kung saan bubuo ng isang analytical system. Sa kawalan ng isang warehouse ng data, ang pagkolekta at pag-aayos ng impormasyong kinakailangan para sa pagsusuri ay aabutin sa halos lahat ng oras, na higit sa lahat ay magpapawalang-bisa sa lahat ng mga benepisyo ng pagsusuri. Pagkatapos ng lahat, isa sa mga pangunahing tagapagpahiwatig Ang anumang analytical system ay mabilis na nakakakuha ng mga resulta.

Ang susunod na elemento ng diagram ay ang semantic layer. Hindi alintana kung paano susuriin ang impormasyon, kinakailangan na ito ay maunawaan ng gumagawa ng desisyon, dahil sa karamihan ng mga kaso ang nasuri na data ay matatagpuan sa iba't ibang mga database, at ang gumagawa ng desisyon ay hindi dapat bungkalin ang mga nuances ng pagtatrabaho sa DBMS, ito ay kinakailangan upang lumikha ng ilang mekanismo na nagbabago sa mga tuntunin lugar ng paksa sa mga tawag sa mga mekanismo ng pag-access sa database. Ang gawaing ito ay ginagawa ng semantic layer. Ito ay kanais-nais na ito ay pareho para sa lahat ng mga aplikasyon ng pagsusuri, kaya mas madaling mag-aplay ng iba't ibang mga diskarte sa problema.

Ang mga sistema ng pag-uulat ay idinisenyo upang sagutin ang tanong na "ano ang nangyayari." Ang unang opsyon para sa paggamit nito: ang mga regular na ulat ay ginagamit upang subaybayan ang sitwasyon ng pagpapatakbo at pag-aralan ang mga paglihis. Halimbawa, ang system ay naghahanda ng mga pang-araw-araw na ulat sa mga balanse ng produkto sa bodega, at kapag ang halaga nito ay mas mababa sa average na lingguhang pagbebenta, kinakailangang tumugon dito sa pamamagitan ng paghahanda ng isang purchase order, ibig sabihin, sa karamihan ng mga kaso, ito ay mga standardized na transaksyon sa negosyo. Kadalasan, ang ilang elemento ng diskarteng ito ay ipinapatupad sa isang anyo o iba pa sa mga kumpanya (kahit na sa papel lamang), ngunit hindi ito dapat pahintulutan na maging ang tanging magagamit na diskarte sa pagsusuri ng data. Ang pangalawang opsyon para sa paggamit ng mga sistema ng pag-uulat: pagpoproseso ng mga ad hoc na kahilingan. Kapag ang isang gumagawa ng desisyon ay gustong subukan ang anumang pag-iisip (hypothesis), kailangan niyang kumuha ng pagkain para sa pag-iisip na nagpapatunay o nagpapabulaan sa ideya, dahil ang mga kaisipang ito ay kusang dumarating, at walang eksaktong ideya kung anong uri ng impormasyon ang kinakailangan , kailangan ang isang tool na nagbibigay-daan sa iyong mabilis at makuha ang impormasyong ito sa isang maginhawang anyo. Ang nakuhang data ay karaniwang ipinakita sa alinman sa mga talahanayan o mga graph at mga tsart, bagama't ang iba pang mga presentasyon ay posible.

Bagama't maaaring gamitin ang iba't ibang paraan upang bumuo ng mga sistema ng pag-uulat, ang pinakakaraniwan ngayon ay ang mekanismo ng OLAP. Ang pangunahing ideya ay upang ipakita ang impormasyon sa anyo ng mga multidimensional na cube, kung saan ang mga axes ay kumakatawan sa mga sukat (halimbawa, oras, mga produkto, mga customer), at ang mga cell ay naglalaman ng mga tagapagpahiwatig (halimbawa, ang halaga ng mga benta, average na presyo pagkuha). Minamanipula ng user ang mga sukat at tumatanggap ng impormasyon sa nais na konteksto.

Dahil ang OLAP ay madaling maunawaan, ito ay naging malawakang ginagamit bilang isang data analysis engine, dapat itong maunawaan na ang mga kakayahan nito para sa mas malalim na pagsusuri, tulad ng pagtataya, ay lubhang limitado. Ang pangunahing problema sa paglutas ng mga problema sa pagtataya ay hindi ang kakayahang kunin ang data ng interes sa anyo ng mga talahanayan at tsart, ngunit ang pagbuo ng isang sapat na modelo. Kung gayon ang lahat ay medyo simple. Ang bagong impormasyon ay ibinibigay sa input ng umiiral na modelo, dumaan dito, at ang resulta ay ang forecast. Ngunit ang pagbuo ng isang modelo ay isang ganap na di-maliit na gawain. Siyempre, maaari kang magdagdag ng ilang handa na at mga simpleng modelo, halimbawa, linear regression o isang katulad na bagay, medyo madalas na ito mismo ang ginagawa nila, ngunit hindi nito malulutas ang problema. Ang mga problema sa totoong mundo ay halos palaging lumalampas sa mga simpleng modelo. Dahil dito, makikita lamang ng naturang modelo ang mga halatang dependencies, ang halaga ng pag-detect na bale-wala, na kilala na, o gagawa ito ng masyadong magaspang na mga hula, na ganap ding hindi kawili-wili. Halimbawa, kung susuriin mo ang presyo ng mga pagbabahagi sa stock market batay sa simpleng pag-aakala na bukas ang halaga ng mga pagbabahagi ay pareho sa ngayon, kung gayon sa 90% ng mga kaso ikaw ay tama. At gaano kahalaga ang gayong kaalaman? Tanging ang natitirang 10% ay interesado sa mga broker. Ang mga primitive na modelo sa karamihan ng mga kaso ay nagbibigay ng mga resulta ng humigit-kumulang sa parehong antas.

Ang tamang diskarte sa pagbuo ng mga modelo ay upang pahusayin ang mga ito nang hakbang-hakbang. Simula sa una, medyo magaspang na modelo, ito ay kinakailangan upang mapabuti ito bilang bagong data ay naipon at ang modelo ay inilapat sa pagsasanay. Ang aktwal na gawain ng paggawa ng mga pagtataya at mga katulad na bagay ay higit pa sa mga mekanismo ng mga sistema ng pag-uulat, kaya hindi ka dapat maghintay sa direksyong ito positibong resulta kapag gumagamit ng OLAP. Upang malutas ang mga problema ng mas malalim na pagsusuri, isang ganap na magkakaibang hanay ng mga teknolohiya ang ginagamit, na pinagsama sa ilalim ng pangalang Knowledge Discovery in Databases.

Ang Knowledge Discovery in Databases (KDD) ay ang proseso ng pagbabago ng data sa kaalaman. Kasama sa KDD ang mga isyu sa paghahanda ng data, pagpili ng mga tampok na nagbibigay-kaalaman, paglilinis ng data, aplikasyon ng mga pamamaraan ng Data Mining (DM), post-processing ng data, interpretasyon ng mga resulta. Ang Data Mining ay ang proseso ng pagtuklas sa "raw" na data na dati ay hindi alam, hindi mahalaga, praktikal na kapaki-pakinabang at nabibigyang-kahulugan na kaalaman na kinakailangan para sa paggawa ng desisyon sa iba't ibang larangan ng aktibidad ng tao.

Ang pagiging kaakit-akit ng diskarteng ito ay, anuman ang paksa, inilalapat namin ang parehong mga operasyon:

  1. I-extract ang data. Sa aming kaso, nangangailangan ito ng semantic layer.
  2. I-clear ang data. Ang paggamit ng "marumi" na data para sa pagsusuri ay maaaring ganap na mapawalang-bisa ang mga mekanismo ng pagsusuri na ginagamit sa hinaharap.
  3. Ibahin ang anyo ng data. Ang iba't ibang paraan ng pagsusuri ay nangangailangan ng data na inihanda sa isang espesyal na anyo. Halimbawa, sa isang lugar lamang ang digital na impormasyon ang maaaring gamitin bilang mga input.
  4. Isagawa ang aktwal na pagsusuri – Pagmimina ng Data.
  5. Bigyang-kahulugan ang mga resultang nakuha.

Ang prosesong ito ay paulit-ulit na paulit-ulit.

Ang Data Mining naman ay nagbibigay ng solusyon sa 6 na problema lamang - classification, clustering, regression, association, sequence at deviation analysis.

Ito lang ang kailangang gawin para ma-automate ang proseso ng pagkuha ng kaalaman. Ang eksperto, na kilala rin bilang ang gumagawa ng desisyon, ay nagsasagawa na ng mga karagdagang hakbang.

Ang interpretasyon ng mga resulta ng pagpoproseso ng computer ay nakasalalay sa mga tao. Basta iba't ibang pamamaraan magbigay ng iba't ibang pagkain para sa pag-iisip. Sa pinaka simpleng kaso– ito ay mga talahanayan at diagram, at sa mas kumplikadong mga ito – mga modelo at panuntunan. Imposibleng ganap na ibukod ang pakikilahok ng tao, dahil ang isa o isa pang resulta ay walang kahulugan hanggang sa ito ay inilapat sa isang tiyak na lugar ng paksa. Gayunpaman, posible na magtiklop ng kaalaman. Halimbawa, ang isang gumagawa ng desisyon, gamit ang ilang paraan, ay tinutukoy kung aling mga tagapagpahiwatig ang makakaapekto sa pagiging credit ng mga mamimili at ipinakita ito sa anyo ng isang panuntunan. Ang panuntunan ay maaaring ipasok sa sistema ng pagpapalabas ng pautang at sa gayon ay makabuluhang bawasan ang mga panganib sa kredito sa pamamagitan ng paglalagay ng kanilang mga pagtatasa sa stream. Kasabay nito, ang taong kasangkot sa aktwal na pagkuha ng mga dokumento ay hindi kinakailangang magkaroon ng malalim na pag-unawa sa mga dahilan para dito o sa konklusyong iyon. Sa katunayan, ito ay ang paglipat ng mga pamamaraan na minsang ginamit sa industriya sa larangan ng pamamahala ng kaalaman. Ang pangunahing ideya ay ang paglipat mula sa isang beses at hindi pinag-isang mga pamamaraan patungo sa mga conveyor.

Ang lahat ng nabanggit sa itaas ay mga pangalan lamang ng mga gawain. At upang malutas ang bawat isa sa kanila, maaari kang gumamit ng iba't ibang mga diskarte, mula sa klasiko istatistikal na pamamaraan at nagtatapos sa mga self-learning algorithm. Ang mga tunay na problema sa negosyo ay halos palaging nalulutas sa pamamagitan ng isa sa mga pamamaraan sa itaas o isang kumbinasyon ng mga ito. Halos lahat ng mga gawain - pagtataya, segmentasyon ng merkado, pagtatasa ng panganib, pagtatasa ng pagganap mga kampanya sa advertising, grado mga kalamangan sa kompetisyon at marami pang iba - pakuluan ang mga inilarawan sa itaas. Samakatuwid, ang pagkakaroon sa iyong pagtatapon ng isang tool na lumulutas sa ibinigay na listahan ng mga gawain, maaari naming sabihin na handa ka nang lutasin ang anumang problema sa pagtatasa ng negosyo.

Kung napansin mo, hindi namin binanggit kung anong tool ang gagamitin para sa pagsusuri, kung anong mga teknolohiya, atbp. ang mga gawain mismo at ang mga pamamaraan para sa paglutas ng mga ito ay hindi nakasalalay sa mga kasangkapan. Ito ay isang paglalarawan lamang ng isang karampatang diskarte sa problema. Maaari mong gamitin ang anumang bagay, ang tanging mahalagang bagay ay ang buong listahan ng mga gawain ay sakop. Sa kasong ito, maaari nating sabihin na mayroong isang tunay na ganap na gumaganang solusyon. Kadalasan, ang mga mekanismo na sumasaklaw lamang sa isang maliit na bahagi ng mga gawain ay iminungkahi bilang isang "buong tampok na solusyon sa mga problema sa pagsusuri sa negosyo." Kadalasan, ang OLAP lang ang nauunawaan bilang isang sistema ng pagsusuri ng impormasyon ng negosyo, na ganap na hindi sapat para sa isang buong pagsusuri. Sa ilalim ng makapal na layer ng mga slogan sa advertising mayroon lamang isang sistema ng pag-uulat. Ang mga epektibong paglalarawan ng ito o ang tool sa pagsusuri na iyon ay nagtatago ng kakanyahan, ngunit sapat na upang magsimula mula sa iminungkahing pamamaraan, at mauunawaan mo ang aktwal na estado ng mga gawain.

(Business Intelligence).

Ang mga batang espesyalista na gumagawa ng isang matagumpay na karera bilang mga analyst sa mga high-tech na kumpanya tulad ng Microsoft, IBM, Google, Yandex, MTS, atbp. ay iniimbitahan bilang mga tagapagsalita sa seminar, ang mga mag-aaral ay sinasabihan tungkol sa ilan sa mga problema sa negosyo na nalutas sa mga kumpanyang ito, tungkol sa kung paano naipon ang data, kung paano lumitaw ang mga problema sa pagsusuri ng data, at kung anong mga pamamaraan ang maaaring gamitin upang malutas ang mga ito.

Ang lahat ng mga inimbitahang espesyalista ay bukas para sa mga contact, at ang mga mag-aaral ay maaaring makipag-ugnayan sa kanila para sa payo.

Mga layunin ng seminar:

  • tumulong na tulay ang umiiral na agwat sa pagitan ng pananaliksik sa unibersidad at paglutas ng mga praktikal na problema sa larangan ng pagsusuri ng datos;
  • itaguyod ang pagpapalitan ng karanasan sa pagitan ng kasalukuyan at hinaharap na mga propesyonal.
Regular na ginaganap ang seminar sa Faculty of Computational Mathematics and Mathematics ng Moscow State University tuwing Biyernes sa 18:20 , madla P5(unang palapag).

Libre ang pagdalo sa seminar(kung wala kang pass sa Moscow State University, mangyaring ipaalam sa mga organizer ng seminar nang maaga ang iyong buong pangalan upang magsumite ng listahan ng mga kalahok para sa shift).

Programa ng seminar

PetsaTagapagsalita at paksa ng seminar
Setyembre 10, 2010
18:20
Alexander Efimov , pinuno ng departamento ng pagsusuri retail network MTS.

Pagtataya ng epekto ng mga kampanya sa marketing at pag-optimize ng assortment ng tindahan.

  • Pahina ng inilapat na problema: Pag-optimize ng assortment ng mga retail outlet (gawain gamit ang data).
Setyembre 17, 2010
18:20
Vadim Strizhov , mananaliksik sa Computing Center ng Russian Academy of Sciences.

Pagmamarka ng kredito sa bangko: mga pamamaraan para sa awtomatikong pagbuo at pagpili ng mga modelo.

Isinasaalang-alang ang mga klasiko at bagong teknolohiya para sa paggawa ng mga scoring card. Ang seminar ay nag-uusap tungkol sa kung paano inayos ang data ng customer at kung paano bumuo ng pinaka-kapani-paniwalang modelo ng pagmamarka, na nakakatugon din sa mga kinakailangan ng mga internasyonal na pamantayan sa pagbabangko.

Setyembre 24, 2010
18:20
Vladimir Krekoten , Pinuno ng Marketing at Sales sa Otkritie brokerage house.

Aplikasyon mga pamamaraan sa matematika para hulaan at kontrahin ang pag-churn ng customer.

Isinasaalang-alang ang mga praktikal na problemang lumabas sa pagsusuri base ng kliyente sa marketing. Ang mga gawain ng pag-cluster at pagse-segment ng mga kliyente, pag-iskor ng mga bagong kliyente, at pagsubaybay sa dynamics ng mga target na segment ay nakatakda.

  • Pahina ng inilapat na problema: Pag-cluster ng mga kliyente ng isang brokerage company (task with data).
Oktubre 1, 2010
18:20
Nikolay Filipenkov , umaarte Pinuno ng Credit Scoring Department ng Bank of Moscow.

Paglalapat ng mga pamamaraan sa matematika upang pamahalaan ang panganib sa tingi ng kredito.

Ang ilang praktikal na aspeto ng pagbuo ng mga modelo ng pagmamarka at pagtatasa ng panganib ay isinasaalang-alang.

  • Pahina ng Problema sa Application: Pamamahala sa Panganib sa Retail Credit (Problema sa Data) .
Oktubre 8, 2010
18:20
Fedor Romanenko , tagapamahala ng departamento ng kalidad ng paghahanap, Yandex.

Kasaysayan at mga prinsipyo ng pagraranggo sa paghahanap sa web.

Ang mga isyu sa paggamit at pagbuo ng mga paraan ng Pagkuha ng Impormasyon, mula sa pagraranggo ng teksto at link hanggang sa Machine Learning hanggang sa Pagraranggo sa problema sa paghahanap sa Internet ay isinasaalang-alang. Ang mga pangunahing prinsipyo na pinagbabatayan ng modernong web ranking ay nakabalangkas kaugnay ng mga kwento ng tagumpay sa search engine. Ang partikular na atensyon ay binabayaran sa epekto ng kalidad ng paghahanap sa mga tagapagpahiwatig ng merkado at ang mahalagang pangangailangan na patuloy na magtrabaho upang mapabuti ito.

Oktubre 15, 2010
18:20
Vitaly Goldstein , developer, Yandex.

Mga serbisyo ng geoinformation Yandex.

Ito ay nagsasabi tungkol sa Yandex.Traffic project at iba pang Yandex geoinformation projects, tungkol sa kung saan nagmumula ang source data para sa construction geo mga sistema ng impormasyon, tungkol sa bagong nasusukat na teknolohiya sa pagpoproseso ng data, tungkol sa kumpetisyon sa matematika sa Internet at ilang magagandang problema. Ang data ay ibinigay at ang isang pormal na pagbabalangkas ng problema ng muling pagtatayo ng isang mapa ng daan ay ibinigay.

  • Pahina ng inilapat na problema: Paggawa ng isang road graph gamit ang data sa mga track ng sasakyan (gawain na may data).
Oktubre 22, 2010Kinansela ang seminar.
Oktubre 29, 2010
18:20
Fedor Krasnov , Pangalawang Pangulo ng Mga Proseso ng Negosyo at teknolohiya ng impormasyon, AKADO.

Paano makakuha ng data ng customer?

Sa paglipas ng mga dekada ng pakikipagtulungan sa malalaking customer, ang kumpanya ng Force ay nakaipon ng malawak na karanasan sa larangan ng pagsusuri sa negosyo at ngayon ay aktibong bumubuo ng malalaking teknolohiya ng data. Sa isang pakikipanayam sa CNews, si Olga Gorchinskaya, direktor ng mga proyekto sa pananaliksik at pinuno ng Big Data "Force".

15.10.2015

Olga Gorchinskaya

Sa mga nagdaang taon, isang henerasyon ng mga pinuno ang nagbago. Ang mga bagong tao ay dumating upang pamahalaan ang mga kumpanya na gumawa ng kanilang mga karera sa panahon na ng impormasyon, at sila ay nakasanayan na gumamit ng mga computer, Internet at mga mobile device as in araw-araw na buhay at para sa paglutas ng mga problema sa trabaho.

CNews: Paano in demand ang mga tool ng BI? Mga kumpanyang Ruso? May mga pagbabago ba sa diskarte sa pagsusuri sa negosyo: mula sa "Excel-style analytics" hanggang sa paggamit ng mga tool sa pagsusuri ng mga nangungunang tagapamahala?

Olga Gorchinskaya:

Ngayon, ang pangangailangan para sa mga tool sa pagtatasa ng negosyo ay medyo mataas na. Ginagamit ang mga ito ng malalaking organisasyon sa halos lahat ng sektor ng ekonomiya. Parehong katamtaman at maliliit na negosyo ay natatanto din ang mga benepisyo ng paglipat mula sa Excel patungo sa mga dalubhasang analytical na solusyon.

Kung ihahambing natin ang sitwasyong ito sa mga kumpanya limang taon na ang nakararaan, makikita natin ang makabuluhang pag-unlad. Sa mga nagdaang taon, isang henerasyon ng mga pinuno ang nagbago. Ang mga bagong tao ay dumating upang pamahalaan ang mga kumpanya na gumawa ng kanilang mga karera sa panahon ng impormasyon, at sila ay nakasanayan na gumamit ng mga computer, Internet at mga mobile device kapwa sa pang-araw-araw na buhay at upang malutas ang mga problema sa trabaho.

CNews: Ngunit wala nang mga proyekto?

Olga Gorchinskaya:

Kamakailan, napansin natin ang bahagyang pagbaba sa bilang ng mga bagong malalaking proyekto ng BI. Una, ang kumplikadong pangkalahatang sitwasyong pang-ekonomiya at pampulitika ay gumaganap ng isang papel. Pinipigilan nito ang pagsisimula ng ilang proyekto na may kaugnayan sa pagpapakilala ng mga sistemang Kanluranin. Interes sa mga solusyon batay sa malayang ipinamamahagi software inaantala din ang pagsisimula ng mga proyekto ng BI, dahil nangangailangan ito ng paunang pag-aaral ng segment ng software na ito. Maraming Open Source analytics na solusyon ang hindi pa sapat para magamit nang malawakan.

Pangalawa, ang isang tiyak na saturation ng merkado ay naganap na. Sa ngayon ay walang maraming organisasyon na hindi gumagamit ng pagsusuri sa negosyo. At, tila, ang oras ng aktibong paglago sa pagpapatupad ng malalaking corporate analytical system ay lumilipas.

At sa wakas, mahalagang tandaan na ang mga customer ay nagbabago na ngayon ng kanilang diin sa paggamit ng mga tool ng BI, na pumipigil sa paglaki sa bilang ng mga proyektong nakasanayan na natin. Ang katotohanan ay ang nangungunang mga supplier - Oracle, IBM, SAP - ay nagtatayo ng kanilang mga solusyon sa BI sa ideya ng isang solong pare-parehong lohikal na modelo ng data, na nangangahulugang bago mag-analisa ng isang bagay, kinakailangan na malinaw na tukuyin at sumang-ayon sa lahat ng mga konsepto at mga tagapagpahiwatig.

Kasama ng mga halatang bentahe, humahantong ito sa isang malaking pag-asa ng mga gumagamit ng negosyo sa mga espesyalista sa IT: kung kinakailangan na isama ang ilang bagong data sa saklaw ng pagsasaalang-alang, ang negosyo ay kailangang patuloy na bumaling sa IT upang i-download ang data, ibagay ito sa umiiral na mga istruktura, isama ito sa isang pangkalahatang modelo, atbp. d. Ngayon nakita namin na ang mga negosyo ay nais ng higit na kalayaan, at para sa kapakanan ng kakayahang makapag-independiyenteng magdagdag ng mga bagong istruktura, bigyang-kahulugan at pag-aralan ang mga ito sa kanilang sariling paghuhusga, ang mga gumagamit ay handang isakripisyo ang ilang bahagi ng pagkakapare-pareho ng kumpanya.

Samakatuwid, ang mga magaan na tool ay nauuna na ngayon, na nagbibigay-daan sa mga end user na direktang magtrabaho sa data at hindi masyadong mag-alala tungkol sa pagkakapare-pareho sa antas ng korporasyon. Bilang resulta, nakikita namin ang tagumpay sa Tableaux at Qlick, na nagbibigay-daan sa istilo ng Data Discovery na trabaho, at ilang pagkawala ng market ng malalaking provider ng solusyon.

CNews: Ipinapaliwanag nito kung bakit ang ilang organisasyon ay nagpapatupad ng ilang sistema ng BI - lalo itong kapansin-pansin sa sektor ng pananalapi. Ngunit maituturing bang normal ang naturang impormasyon?


Olga Gorchinskaya

Ngayon, ang mga tool na dati naming itinuturing na masyadong magaan para sa antas ng enterprise ay gumaganap ng isang nangungunang papel. Ito ang mga solusyon sa klase ng Data Discovery.

Olga Gorchinskaya:

Sa katunayan, sa pagsasagawa, ang mga malalaking organisasyon ay madalas na gumagamit ng hindi isang solong, ngunit ilang mga independiyenteng sistema ng analytical, bawat isa ay may sariling mga tool sa BI. Ang ideya ng isang corporate-wide analytical na modelo ay naging isang maliit na utopia at kahit na nililimitahan ang pagsulong ng mga teknolohiyang analytical, dahil sa pagsasagawa ng bawat departamento, o kahit na isang indibidwal na gumagamit, ay nagnanais ng kalayaan at kalayaan. Walang nakakatakot dito. Pagkatapos ng lahat, sa parehong bangko, ang mga espesyalista sa panganib at mga marketer ay nangangailangan ng ganap na magkakaibang mga tool sa BI. Samakatuwid, medyo normal kapag ang isang kumpanya ay pumili ng hindi isang napakalaking solong solusyon para sa lahat ng mga gawain, ngunit ilang maliliit na sistema na pinakaangkop para sa mga indibidwal na departamento.

Ngayon, ang mga tool na dati naming itinuturing na masyadong magaan para sa antas ng enterprise ay gumaganap ng isang nangungunang papel. Ito ang mga solusyon sa klase ng Data Discovery. Ang mga ito ay batay sa ideya ng pagiging simple ng pagtatrabaho sa data, bilis, kakayahang umangkop at madaling maunawaan na pagtatanghal ng mga resulta ng pagsusuri. May isa pang dahilan para sa lumalagong katanyagan ng naturang mga tool: ang mga kumpanya ay lalong nakadarama ng pangangailangan na magtrabaho sa impormasyon ng isang nagbabagong istraktura, sa pangkalahatan ay hindi nakabalangkas, na may "malabo" na kahulugan at hindi palaging malinaw na halaga. Sa kasong ito, higit pang mga naiaangkop na tool ang hinihiling kaysa sa mga klasikal na tool sa pagsusuri ng negosyo.

Ang "Fors" ay lumikha ng pinakamalaking platform sa Europe at natatangi sa Russia - Fors Solution Center. Ang pangunahing gawain nito ay upang ilapit pinakabagong teknolohiya Oracle sa huling customer, upang matulungan ang mga kasosyo sa kanilang pag-unlad at aplikasyon, upang gawing naa-access ang mga proseso ng pagsubok na kagamitan at software hangga't maaari. Ito ay isang uri ng data center para sa mga sistema ng pagsubok at mga solusyon sa ulap ng mga kasosyo.

CNews: Paano nakakatulong ang malalaking data na teknolohiya sa pag-unlad ng analytics ng negosyo?

Olga Gorchinskaya:

Ang mga lugar na ito - malaking data at analytics ng negosyo - ay lumalapit sa isa't isa at, sa aking opinyon, ang hangganan sa pagitan ng mga ito ay malabo na. Halimbawa, ang advanced na analytics ay itinuturing na "malaking data" kahit na ito ay umiral bago ang pagdating ng Big Data. Sa ngayon, ang interes sa machine learning at statistics ay tumataas, at sa tulong ng malalaking data na teknolohiya na ito ay posible na palawakin ang functionality ng isang tradisyunal na sistema ng negosyo na nakatuon sa mga kalkulasyon at visualization.

Bilang karagdagan, ang konsepto ng mga data warehouse ay pinalawak sa pamamagitan ng paggamit ng Hadoop na teknolohiya, na humantong sa mga bagong pamantayan para sa pagbuo ng corporate storage sa anyo ng "data lakes".

CNews: Ano ang mga pinaka-promising na gawain kung saan ginagamit ang malalaking data solution?

Olga Gorchinskaya:

Gumagamit kami ng malalaking teknolohiya ng data sa mga proyekto ng BI sa ilang mga kaso. Ang una ay kapag ito ay kinakailangan upang mapabuti ang pagganap ng isang umiiral na data warehouse, na kung saan ay napakahalaga sa mga kondisyon kung saan ang mga kumpanya ay may mabilis na lumalagong dami ng impormasyon na ginagamit. Ang pag-iimbak ng hilaw na data sa mga tradisyonal na relational database ay napakamahal at lalong nangangailangan ng kapangyarihan sa pagpoproseso. Sa ganitong mga kaso, mas makatuwirang gamitin ang Hadoop toolkit, na napaka-epektibo dahil sa mismong arkitektura nito, flexible, madaling ibagay sa mga partikular na pangangailangan at kumikita mula sa pang-ekonomiyang punto ng view, dahil ito ay batay sa isang Open Source na solusyon.

Gamit ang Hadoop, sa partikular, nalutas namin ang problema sa pag-iimbak at pagproseso ng hindi nakabalangkas na data sa isang malaking bangko ng Russia. SA sa kasong ito Pinag-uusapan namin ang tungkol sa malalaking volume ng regular na dumarating na data na may nagbabagong istraktura. Ang impormasyong ito ay dapat na iproseso, i-parse, ang mga numerong tagapagpahiwatig na nakuha mula dito, at ang orihinal na data ay dapat ding i-save. Dahil sa makabuluhang paglaki sa dami ng papasok na impormasyon, ang paggamit ng relational na imbakan para dito ay naging masyadong mahal at hindi epektibo. Gumawa kami ng hiwalay na Hadoop cluster para sa pagproseso pangunahing mga dokumento, ang mga resulta nito ay na-load sa isang relational na imbakan para sa pagsusuri at karagdagang paggamit.

Ang pangalawang direksyon ay ang pagpapakilala ng mga advanced na tool sa analytics upang palawakin ang functionality ng BI system. Ito ay isang napaka-promising na lugar, dahil nauugnay ito hindi lamang sa paglutas ng mga problema sa IT, kundi pati na rin sa paglikha ng mga bagong pagkakataon sa negosyo.

Sa halip na mag-organisa ng mga espesyal na proyekto para ipatupad ang malalim na analytics, sinusubukan naming palawakin ang saklaw ng mga kasalukuyang proyekto. Halimbawa, para sa halos anumang sistema, ang isang kapaki-pakinabang na function ay upang mahulaan ang mga tagapagpahiwatig batay sa magagamit na makasaysayang data. Hindi ito isang simpleng gawain; nangangailangan ito ng hindi lamang mga kasanayan sa pagtatrabaho sa mga tool, kundi pati na rin ang ilang pagsasanay sa matematika, kaalaman sa mga istatistika at ekonometrika.

Ang aming kumpanya ay may nakalaang pangkat ng mga data scientist na nakakatugon sa mga kinakailangang ito. Nakumpleto nila ang isang proyekto sa larangan ng pangangalagang pangkalusugan sa pagbuo ng pag-uulat ng regulasyon, at bilang karagdagan, sa loob ng balangkas ng proyektong ito, ipinatupad ang pagtataya sa karga ng trabaho. mga organisasyong medikal at ang kanilang pagkakahati sa pamamagitan ng mga tagapagpahiwatig ng istatistika. Ang halaga ng naturang mga pagtataya para sa customer ay malinaw para sa kanya, ito ay hindi lamang ang paggamit ng ilang mga bagong kakaibang teknolohiya, ngunit isang ganap na natural na pagpapalawak ng analytical kakayahan. Bilang resulta, ang interes sa pagpapaunlad ng sistema ay pinasigla, at bagong gawain para sa amin. Ngayon ay pareho kaming nagpapatupad ng mga predictive analytics na teknolohiya sa isang proyekto para sa pamamahala ng lungsod.

At sa wakas, mayroon kaming karanasan sa pagpapatupad ng malalaking teknolohiya ng data kung saan pinag-uusapan natin ang paggamit ng hindi nakaayos na data, pangunahin ang iba't ibang mga dokumentong teksto. Nag-aalok ang Internet ng magagandang pagkakataon kasama ang napakalaking dami nito ng hindi nakaayos na impormasyon na naglalaman ng kapaki-pakinabang na impormasyon para sa negosyo. napaka kawili-wiling karanasan kami ay nauugnay sa pagbuo ng isang sistema para sa pagtatasa ng halaga ng real estate para sa kumpanyang ROSECO kapag hiniling lipunang Ruso mga appraiser. Upang pumili ng mga analogue na bagay, ang system ay nangolekta ng data mula sa mga mapagkukunan sa Internet, pinoproseso ang impormasyong ito gamit ang mga teknolohiyang pangwika at pinayaman ito gamit ang geo-analytics gamit ang mga pamamaraan sa pag-aaral ng makina.

CNews: Anong mga pagmamay-ari na solusyon ang binuo ng Force sa mga lugar ng analytics ng negosyo at malaking data?

Olga Gorchinskaya:

Kami ay nakabuo at gumagawa ng isang espesyal na solusyon sa larangan ng malaking data – ForSMedia. Ito ay isang social media data analytics platform upang pagyamanin ang kaalaman ng customer. Maaari itong magamit sa iba't ibang mga industriya: ang sektor ng pananalapi, telecom, tingian - kahit saan kung saan nais nilang malaman hangga't maaari tungkol sa kanilang mga kliyente.


Olga Gorchinskaya

Kami ay nakabuo at gumagawa ng isang espesyal na solusyon sa larangan ng malaking data – ForSMedia. Ito ay isang social media data analytics platform upang pagyamanin ang kaalaman ng customer.

Ang isang karaniwang kaso ng paggamit ay ang pagbuo ng mga naka-target na kampanya sa marketing. Kung ang isang kumpanya ay may 20 milyong mga customer, ipamahagi ang lahat mga patalastas Ayon sa database ito ay hindi makatotohanan. Kailangan mong paliitin ang bilog ng mga tatanggap ng ad, at layunin function dito – para mapataas ang tugon ng customer sa alok sa marketing. Sa kasong ito, maaari kaming mag-upload ng pangunahing data tungkol sa lahat ng kliyente (pangalan, apelyido, petsa ng kapanganakan, lugar ng paninirahan) sa ForSMedia, at pagkatapos, batay sa impormasyon mula sa mga social network, dagdagan sila ng bagong kapaki-pakinabang na impormasyon, kabilang ang hanay ng mga interes, katayuan sa lipunan, komposisyon ng pamilya, rehiyon propesyonal na aktibidad, mga kagustuhan sa musika, atbp. Siyempre, ang gayong kaalaman ay hindi mahahanap para sa lahat ng mga kliyente, dahil ang isang tiyak na bahagi ng mga ito ay hindi gumagamit ng mga social network, ngunit para sa naka-target na marketing, kahit na ang gayong "hindi kumpleto" na resulta ay nagbibigay ng napakalaking pakinabang.

Social media ay isang napakayamang mapagkukunan, kahit na mahirap gamitin. Ito ay hindi napakadaling kilalanin ang isang tao sa mga gumagamit - ang mga tao ay madalas na gumagamit ng iba't ibang anyo ng kanilang mga pangalan, hindi nagpapahiwatig ng edad, mga kagustuhan, at hindi madaling malaman ang mga katangian ng isang gumagamit batay sa kanyang mga post at mga grupo ng subscription.

Ang platform ng ForSMedia ay nilulutas ang lahat ng mga problemang ito batay sa mga teknolohiya ng malalaking data at nagbibigay-daan sa iyong malawakang pagyamanin ang data ng customer at pag-aralan ang mga resulta. Kasama sa mga teknolohiyang ginamit ang Hadoop, R statistical research environment, RCO linguistic processing tool, at Data Discovery tool.

Ang ForSMedia platform ay gumagawa ng maximum na paggamit ng malayang ipinamahagi na software at maaaring i-install sa anumang hardware platform na nakakatugon sa mga kinakailangan ng gawain ng negosyo. Ngunit para sa pangunahing pagpapatupad at para sa mas mataas na mga kinakailangan sa pagganap, nag-aalok kami ng isang espesyal na bersyon na na-optimize para sa operasyon sa Oracle hardware at software system – Oracle Big Data Appliance at Oracle Exalytics.

Gamitin sa malalaking proyekto Ang mga makabagong pinagsama-samang Oracle complex ay isang mahalagang lugar ng aming aktibidad hindi lamang sa larangan ng mga sistema ng analytical. Ang mga naturang proyekto ay hindi magiging mura, ngunit dahil sa laki ng mga gawain na nalutas, sila ay ganap na makatwiran.

CNews: Maaari bang subukan ng mga customer ang mga system na ito bago gumawa ng desisyon sa pagbili? Nagbibigay ka ba, halimbawa, ng mga test bench?

Olga Gorchinskaya:

Sa direksyong ito, hindi lang kami nagbibigay ng mga test bench, ngunit nakagawa kami ng pinakamalaking platform sa Europe at natatangi sa Russia - Fors Solution Center. Ang pangunahing gawain nito ay ilapit ang pinakabagong mga teknolohiya ng Oracle sa huling customer, upang matulungan ang mga kasosyo sa kanilang pag-unlad at aplikasyon, at gawing madaling ma-access ang mga proseso ng pagsubok na kagamitan at software hangga't maaari. Ang ideya ay hindi nagmula sa kung saan. Sa loob ng halos 25 taon, ang Force ay bumubuo at nagpapatupad ng mga solusyon batay sa mga teknolohiya at platform ng Oracle. Mayroon kaming malawak na karanasan sa pagtatrabaho sa parehong mga kliyente at kasosyo. Sa katunayan, ang "Force" ay ang sentro ng kakayahan ng Oracle sa Russia.

Isinasaalang-alang ang karanasang ito, noong 2011, nang lumitaw ang mga unang bersyon ng Oracle Exadata database engine, nilikha namin ang unang laboratoryo para sa pag-master ng mga system na ito, na tinawag itong ExaStudio. Sa batayan nito, maaaring matuklasan ng dose-dosenang mga kumpanya ang mga posibilidad ng mga bagong solusyon sa software at hardware ng Exadata. Sa wakas, noong 2014, ginawa namin itong isang uri ng data center para sa mga sistema ng pagsubok at mga solusyon sa cloud - ito ang Fors Solution Center.

Ngayon ang aming Center ay nagpapakita ng isang buong linya ng pinakabagong Oracle software at hardware system - mula sa Exadata at Exalogic hanggang sa Big Data Appliance - na, sa katunayan, ay nagsisilbing mga test bench para sa aming mga kasosyo at kliyente. Bilang karagdagan sa pagsubok, dito ka makakakuha ng mga serbisyo para sa pag-audit ng mga sistema ng impormasyon, paglipat sa isang bagong platform, pag-set up, pag-configure at pag-scale.

Ang sentro ay aktibong umuunlad sa direksyon ng paggamit ng mga teknolohiya ng ulap. Hindi nagtagal, binago ang arkitektura ng Center sa paraang maibigay ang mga mapagkukunan at serbisyo ng computing nito sa cloud. Ngayon ay maaaring samantalahin ng mga customer ang mga kakayahan sa pagiging produktibo ng self-service: mag-upload ng data ng pagsubok, mga application at magsagawa ng pagsubok sa cloud environment.

Bilang resulta, ang isang kasosyong kumpanya o customer ay maaaring, nang walang paunang pamumuhunan sa kagamitan at mga pilot project sa kanilang teritoryo, mag-upload ng sarili nilang mga application sa aming cloud, subukan, paghambingin ang mga resulta ng pagganap at gumawa ng desisyon tungkol sa paglipat sa isang bagong platform.

CNews: At ang huling tanong – ano ang ipapakita mo sa Oracle Day?

Olga Gorchinskaya:

Ang Oracle Day ay ang pangunahing kaganapan ng taon sa Russia para sa korporasyon at lahat ng mga kasosyo nito. Ang "Force" ay paulit-ulit na naging pangkalahatang sponsor nito, at sa taong ito rin. Ang forum ay ganap na nakatuon sa mga paksa ng ulap - PaaS, SaaS, IaaS, at gaganapin bilang Oracle Cloud Day, dahil ang Oracle ay nagbibigay ng malaking pansin sa mga teknolohiyang ito.

Sa kaganapan, ipapakita namin ang aming platform ng ForSMedia, at pag-uusapan din ang aming karanasan sa paggamit ng mga teknolohiya at proyekto ng malalaking data sa larangan ng analytics ng negosyo. At, siyempre, sasabihin namin sa iyo ang tungkol sa mga bagong kakayahan ng aming Fors Solution Center sa larangan ng pagbuo ng mga cloud solution.