Sabtu, 04 Juli 2020

Jurnal Pengukuran Kualitas dan Esensi Analisis Web



            Halo para pengunjung blog, pada kesempatan kali ini saya ingin membagikan hasil jurnal yang kelompok saya buat. Saya dan teman-teman saya membuat jurnal yang berjudul Pengukuran Kualitas dan Esensi Analisis Web, tetapi dalam pembuatan jurnal ini masih sangat banyak kekurangan, mohon maaf dan mohon dimaklumi karena kami masih dalam tahap pembelajaran. Berikut adalah jurnal yang kami buat.


Terima kasih bagi yang telah menyempatkan waktu untuk membaca dan menilai jurnal yang kelompok saya buat




Sabtu, 16 Mei 2020

Konsep Pengukuran dan Esensi Analisis Web

       Halo para pengunjung blog atau pencari materi hehe, selamat datang kembali di blog saya yang sederhana ini. Pada kesempatan kali ini saya ingin membahas tentang Konsep Pengukuran dan Esensi Analisis sebuah Website, sebelum saya membahas lebih dalam mengenai pembahasan tersebut sebaiknya kita mengetahui apa si website itu? Website adalah kumpulan halaman yang menampilkan informasi data teks, data gambar, data animasi, suara, video atan gabungan dari semuanya. Website juga dapat dimiliki dengan dua cara yaitu membeli website yang telah dibuat, atau membuat dan mendesignnya sendiri walaupun terlihat susah. Nah, setelah mengetahui pengertian website, maka kita dapat melanjutkan ke pembahasan Konsep Pengukuran dan Esensi Analisis Web.



  1. Konsep Kualitas Pengukuran Web


  •   SERVQUAL


Gap Analysis PowerPoint Template | SketchBubble
       
        ServQual adalah salah satu metode untuk mengukur tingkat kepuasan pelanggan terhadap layanan yang diberikan. Metode ServQual memperhatikan harapan pelanggan mengenai layanan yang akan diterimanya (expectation) dan layanan yang telah diterimanya (perception). Menurut Tjiptono (2005) service quality adalah suatu tingkat keunggulan yang diharapkan dimana pengendalian atas tingkat keunggulan tersebut bertujuan untuk memenuhi kebutuhan pelanggan. Berikut ini adalah dimensi-dimensi dari ServQual :

Reliability : kemampuan untuk memberikan jasa dengan segera dan memuaskan.

Responsiveness : kemampuan untuk memberikan jasa dengan tanggap.

Assurance : kemampuan, kesopanan, dan sifat dapat dipercaya yang dimiliki oleh para staf, bebas dari bahaya, resiko dan keragu-raguan.

Emphaty : kemudahan dalam melakukan hubungan komunikasi yang baik dan memahami kebutuhan pelanggan.

Tangibles : fasilitas fisik, perlengkapan, pegawai dan sarana komunikasi.


  • WEBQUAL


Measuring User Assessments and Expectations: The Use of WebQual ...

      WebQual merupakan salah satu metode pengukuran kualitas website yang dikembangkan oleh Stuart Barnes dan Richard Vidgen (1998) berdasarkan persepsi pengguna akhir (end-user), WebQual adalah “structured and disciplined process that provide a means to identify and carry the voice of the customer through each stage of product and or service development and implementation” yang artinya WebQual adalah proses terstruktur dan disiplin yang menyediakan sarana untuk mengidentifikasi dan membawa suara pelanggan melalui setiap tahap pengembangan produk dan atau jasa dan pelaksanaanya.
Berikut ini adalah dimensi-dimensi dari WebQual :

Usability Quality : Persepsi pengguna terhadap kemudahan dibaca dan dipahami, serta kemudahan beroperasi dan bernavigasi,

Information Quality : Persepsi pengguna terhadap informasi yang disediakan sesuai dengan kebutuhan dan tujuan, selalu up-to-date dan akurat, serta informasi yang dapat dipercaya, relevan, mudah dibaca, dan dipahami,

Service Interaction Quality : Persepsi pengguna terhadap semua proses layanan dapat diselesaikan secara online, proyeksi gambar sesuai dengan situs pemerintah, serta penggunaan situs sebagai sarana interaksi alternatif yang keamanannya lebih baik.



  • Metode WEBQUAL

blog blog: WEBQUAL

       WebQual merupakan metode pengukuran kualitas Website berdasarkan persepsi pengguna akhir. WebQual sudah mulai dikembangkan sejak tahun 1998 dan telah mengalami beberapa interaksi dalam penyusunan dimensi dan butir pertanyaannya dengan metodologi Quality Function Deployment (QFD) yang merupakan sebuah sarana untuk mengidentifikasi dan membawa suara pelanggan melalui setiap tahap pengembangan produk dan juga jasa.

     Kualitas penggunaan meliputi, kemudahan untuk dipelajari, kemudahan untuk dimengerti situs dalam pemberian informasi yang diharapkan pengguna, kemudahan untuk ditelusuri dalam pencarian informasi, kemudahan dalam pengoperasian situs bagi pengguna, kemudahan dalam sistem navigasi memberikan pengalaman baru tentang informasi yang dibutuhkan pengguna, WebQual menggunakan tiga parameter, yaitu :

Kualitas informasi dari penelitian sistem informasi,
Interaksi dan kualitas layanan dari penelitian kualitas sistem informasi, e-commerce, dan pemasaran,
Usability dari human-computer interaction.





       2.  Esensi Analisis Web




       Analisis web adalah pengukuran, pengumpulan, analisis, dan pelaporan data web untuk tujuan memahami dan mengoptimalkan penggunaan web. Namun, analisis Web bukan hanya proses untuk mengukur lalu lintas web tetapi dapat digunakan sebagai alat untuk penelitian bisnis dan pasar, dan untuk menilai dan meningkatkan efektivitas situs web. Aplikasi analisis Web juga dapat membantu perusahaan mengukur hasil kampanye iklan cetak atau siaran tradisional. Ini membantu seseorang untuk memperkirakan bagaimana lalu lintas ke situs web berubah setelah peluncuran iklan baru. Analisis Web menyediakan informasi tentang jumlah pengunjung ke situs web dan jumlah tampilan halaman. Ini membantu mengukur tren lalu lintas dan popularitas yang berguna untuk riset pasar.
Proses analisis web terdiri dari empat tahap, yaitu :

1. Collection of data (Pengumpulan Data)
Tahap ini adalah pengumpulan data dasar dan dasar. Biasanya, data ini adalah hitungan hal. Tujuan dari tahap ini adalah untuk mengumpulkan data.

2. Processing of data into information (Pemrosesan data menjadi informasi)
Tahap ini biasanya menghitung dan menjadikannya rasio, meskipun mungkin masih ada beberapa penghitungan. Tujuan dari tahap ini adalah untuk mengambil data dan menyesuaikannya menjadi informasi, khususnya metrik.

3. Developing KPI (Mengembangkan KPI)
Tahap ini berfokus pada penggunaan rasio (dan jumlah) dan menanamkannya dengan strategi bisnis, disebut sebagai indikator kinerja utama (KPI). Sering kali, KPI menangani aspek konversi, tetapi tidak selalu. Itu tergantung pada organisasi.

4. Formulating online strategy (Merumuskan strategi online)
Tahap ini berkaitan dengan tujuan, sasaran, dan standar online untuk organisasi atau bisnis. Strategi-strategi ini biasanya terkait dengan menghasilkan uang, menyimpan uang, atau meningkatkan pangsa pasar.


        Adapun Tujuan mendasar dari analisis web adalah untuk mengumpulkan dan menganalisis data yang terkait dengan lalu lintas web dan pola penggunaan. Data terutama berasal dari empat sumber: 

Data permintaan HTTP langsung : langsung berasal dari pesan permintaan HTTP (header permintaan HTTP).

Tingkat jaringan dan server menghasilkan data yang terkait dengan permintaan HTTP : bukan bagian dari permintaan HTTP, tetapi diperlukan untuk transmisi permintaan yang berhasil – misalnya, alamat IP pemohon.

Data tingkat aplikasi yang dikirim dengan permintaan HTTP : dihasilkan dan diproses oleh program tingkat aplikasi (seperti JavaScript, PHP, dan ASP.Net), termasuk sesi dan rujukan. Ini biasanya ditangkap oleh log internal daripada layanan analisis web servis.

Data eksternal : dapat digabungkan dengan data di tempat untuk membantu menambah data perilaku situs web yang dijelaskan di atas dan menginterpretasikan penggunaan web. Misalnya, alamat IP biasanya dikaitkan dengan wilayah Geografis dan penyedia layanan internet, buka email dan klik-tayang, data kampanye surat langsung, penjualan dan riwayat timah, atau tipe data lain yang diperlukan.



        Analisis web memiliki keunggulan signifikan sebagai pendekatan metodologis untuk penelitian dan investigasi
Perilaku Faktor-faktor ini termasuk:

Skala : Aplikasi log transaksi dapat mengumpulkan data hingga tingkat yang mengatasi masalah kritis faktor pembatas dalam studi pengguna laboratorium. Studi pengguna di laboratorium biasanya dibatasi dalam hal ukuran sampel, lokasi, ruang lingkup, dan durasi.

Daya : Ukuran sampel data log transaksi bisa sangat besar, sehingga pengujian inferensi dapat sorot hubungan yang signifikan secara statistik. Menariknya, terkadang jumlah datanya log transaksi dari Web sangat besar sehingga hampir setiap hubungan berkorelasi secara signifikan. Karena kekuatan yang besar, para peneliti harus memperhitungkan efek ukuran.

Cakupan : Karena data log transaksi dikumpulkan dalam konteks alami, peneliti dapat menyelidiki seluruh rentang interaksi pengguna-sistem atau fungsionalitas sistem dalam multi-variabel konteks.

Lokasi : Data log transaksi dapat dikumpulkan di lingkungan yang naturalistik dan terdistribusi. Oleh karena itu, pengguna tidak harus berada dalam pengaturan laboratorium buatan.

Durasi : Karena tidak perlu merekrut peserta tertentu untuk studi pengguna, transaksi data log dapat dikumpulkan selama periode yang diperpanjang.

















Daftar Pustaka :

  • https://en.m.wikipedia.org/wiki/Web_analytics
  • https://think360studio.com/process
  • Jansen, B. J. (2009). Understanding user-web interactions via web analytics. Synthesis Lectures on Information Concepts, Retrieval, and Services, 1(1), 1-102.

Jumat, 10 April 2020

Web Crawler dan Routing Protocol

    Halo para pengunjung blog, selamat datang kembali di blog saya. Pada kesempatan kali ini saya hanya ingin sharing sedikit tentang Web Crawler dan jenis-jenis routing protocol serta masing-masing performa dan kehandalannya. Tujuan dilakukan sesi sharing ini untuk memenuhi tugas mata kuliah Pengantar Web Science.


  1. Web Crawler

      Web crawler adalah suatu program atau script otomatis yang relatif simple, dengan metode tertentu melakukan scan atau “crawl” ke semua halaman-halaman internetuntuk membuat index dari data yang dicarinya. Nama lain untuk web crawl adalah web spider, web robot, bot, crawl dan automatic indexer.

       Web crawl dapat digunakan untuk beragam tujuan. Penggunaan yang paling umum adalah yang terkait dengan search engine. Search engine menggunakan web crawl untuk mengumpulkan informasi mengenai apa yang ada di halaman-halaman web publik. Tujuan utamanya adalah mengumpukan data sehingga ketika pengguna Internet mengetikkan kata pencarian di komputernya, search engine dapat dengan segera menampilkan website yang relevan.


  • Bagaimana Cara Kerja Web Crawler?

        Internet  selalu berubah dan berkembang setiap waktunya. Karena tak memungkinkan untuk mengetahui jumlah pasti berapa banyak halaman yang ada di internet, web crawler ini memulai pekerjaannya berdasarkan daftar link halaman yang sudah ia kenal sebelumnya dari sitemap suatu website.
        Dari daftar link sitemap tersebut, ia akan menemukan link-link lain yang tersebar di dalamnya. Setelah itu, ia akan melakukan crawling ke link-link yang baru saja ditemukan itu. Proses ini akan terulang lagi di link selanjutnya dan bisa terus berjalan tanpa henti. Namun, web crawler ini tak sembarangan melakukan crawling. Ada beberapa aturan yang tetap harus mereka patuhi, sehingga mereka bisa lebih selektif dalam crawling. Biasanya dalam melakukan crawling, ia mempertimbangkan tiga hal :


  1. Seberapa Penting dan Relevan Suatu Halaman, Menentukan halaman mana yang perlu crawling, berdasarkan jumlah halaman lain yang menaruh link ke halaman tersebut dan jumlah pengunjung ke sana.
  2. Kunjungan RutinWeb crawler perlu untuk mengunjungi berbagai halaman website secara rutin agar memastikan versi terakhir halaman tersebut yang ada di indeks.
  3. Menuruti Keinginan Robots.txtWeb crawler juga menentukan halaman mana yang perlu crawling berdasarkan keinginan robots.txt. Jadi sebelum crawling ke suatu website, ia akan mengecek robots.txt dari website itu terlebih dahulu. Robots.txt merupakan file di sebuah website yang berisi informasi mengenai halaman mana yang boleh diindeks dan halaman mana yang tak boleh. 

  • Fungsi Web Crawler        
          Fungsi utama dari web crawler memang mengindeks konten di internet. Tetapi Web Crawler juga mempunyai fungsi-fungsi yang lain, yaitu :

    1.  Membandingkan harga
           Web crawler bisa membandingkan harga dari suatu produk di internet. Sehingga harga ataupun data dari produk tersebut bisa akurat.

    2.  Data untuk tool analisis
      Tools analisis website seperti Google Search Console dan Screaming Frog SEO mengandalkan web crawler untuk mengumpulkan data-datanya dan melakukan indexing.

    3.  Data untuk statistik
          Web crawler juga memberikan data-data penting yang bisa digunakan untuk website berita atau website statistik. 

    4.  Proses pemeliharaan
          Proses pemeliharaan sebuah website, seperti memvalidasi kode html sebuah web.




  • Crawling Policies
        Beberapa karakteristik web yang membuat crawling menjadi sangat sulit diantaranya yaitu memiliki kapasitas yang besar , dan kecepatan perubahan dan pembuatan page dinamis yang cepat. Oleh karena itu memerlukan kebijakan(policies) tertentu untuk mempermudah pekerjaan mereka :

  1. Kebijakan pemilihan yang menyatakan halaman mana yang akan diunduh,
  2. Kebijakan kunjungan Kembali yang menyatakan pengecekan pada perubahan halaman,
  3. Kebijakan duplikasi,
  4. Kebijakan kesopanan yang menyatakan bagaimana menghindari overloading situs web,
  5. Kebijakan paralelisasi yang menyatakan cara mengoordinasi web crawler yang terdistribusi.



  • Contoh Penggunaan Web Crawler 


           1.  Teleport Pro

         Salah satu software web crawler untuk keperluan offline browsing. Software ini sudah cukup lama popular, terutama pada saat koneksi internet tidak semudah dan secepat sekarang. Software ini berbayar dan beralamatkan di http://www.tenmax.com.

            2.  HTTrack

            Ditulis dengan menggunakan C, seperti juga Teleport Pro, HTTrack merupakan software yang dapat mendownload konten website menjadi sebuah mirror pada harddisk anda, agar dapat dilihat secara offline. Yang menarik software ini free dan dapat di download pada website resminya di http://www.httrack.com.

            3.  Googlebot

         Merupakan web crawler untuk membangun indeks pencarian yang digunakan oleh search engine Google. Kalau website anda ditemukan orang melalui Google, bisa jadi itu merupakan jasa dari Googlebot. 


            4.  YaCy

            YaCy dibangun atas prinsip jaringan P2P (peer-to-peer), di develop dengan menggunakan java, dan didistribusikan pada beberapa ratus mesin computer (disebut YaCy peers). Tiap-tiap peer di share dengan prinsip P2P untuk berbagi index, sehingga tidak memerlukan server central.




         2. Routing Protocol


           Routing protokol adalah komunikasi antara router. Routing protokol mengijinkan router untuk sharing informasi tentang jaringan dan koneksi antar router. Router menggunakan informasi ini untuk membangun dan memperbaiki tabel routingnya. Protokol routing mengatasi situasi routing yang kompleks secara cepat dan akurat. 

        Protokol routing didesain untuk mendistribusikan informasi yang secara dinamis mengikuti perubahan kondisi jaringan. Protokol routing juga didesain untuk menentukan rute mana yang terbaik untuk mencapai tujuan tersebut. Pemeliharaan jalur dilakukan oleh Routing Dynamic. Routing Protocol terdiri dari berbagai jenis yaitu Routing Information Protocol (RIP), Open Short Path First (OSPF), Interior Gateway Routing Protocol (IGRP), Echanted Interior Gateway Routing Protocol (EIGRP), dan Border Gateway Protocol (BGP).

            Dari kelima jenis routing tersebut tentu saja memiliki kelebihan juga kekurangan dalam aspek Performa maupun kehandalan, berikut perbandingan antara lima jenis routing tersebut :










           Dapat dilihat dari gambar diatas mengenai perbandingan jenis routing dari Routing Information Protocol (RIP) sampai Border Gateway Protocol (BGP) dari aspek Performa dan Kehandalan. Mungkin hanya itu saja informasi yang dapat saya sampaikan mengenai Web Crawler dan Routing Protocol, terima kasih kepada para pembaca yang telah menyempatkan waktunya mampir untuk membaca di blog saya.



















Daftar Pustaka :

Rosmala, Dewi & Rizki Rivani, Syafei. (2011). IMPLEMENTASI WEBCRAWLER PADA SOCIAL MEDIA MONITORING. Jurnal Informatika. 2(2) : 1-9.

       



           
               
           














Senin, 13 Januari 2020

Design Catch The Fruit Aplikasi Fruit and Veggies

    Halo para pengunjung blog, selamat datang kembali di blog saya. Pada kesempatan kali ini saya ingin membahas tentang design aplikasi yang bagian saya buat atau biasa disebut dengan User Interface (UI), aplikasi ini bernama "Fruit and Veggies" yang di dalamnya user dapat belajar mengenal dan mengucapkan buah - buahan dan sayur - sayuran dalam bahasa inggris. Selain itu user juga dapat bermain game ketika sudah mengenal bentuk dan nama buah, serta sayurannya. Aplikasi ini didesign untuk range usia 2 - 3 tahun.

     Pada bagian saya, saya membuat game nya yaitu "Catch The Fruit" yang design nya kurang lebih seperti ini.


      
     Pada karakternya kelompok kami setuju dengan kelinci karena kelinci terlihat populer dan juga lucu untuk anak - anak, dan tema menangkap nya yaitu di hutan yang banyak pohonnya agar kelihatan lebih asli bahwa buahnya jatuh dari pohon. Selain itu dibagian score dan waktu saya buat bintang dan jam agar anak - anak mengetahui maksud dari angka - angka yang tertera diatas, yang "0" menunjukkan score dan yang "60" menunjukkan lama waktu bermain. Selain itu saya juga membuat fitur yang bersimbol "?" yang jika di klik akan muncul tampilan seperti ini.




     Ini merupakan fitur "How to Play" yang jika diklik akan menampilkan cara bermainnya yaitu sentuh dan tahan untuk menggeser karakter dan menangkap buahnya, dibuat dengan ilustrasi tangan agar jika anak - anak tidak bisa membaca atau tidak mengerti tulisan di tengah tersebut, setidaknya mereka dapat mencoba dan menyentuh dan menahan sehingga mereka menjadi tahu cara bermainnya.
"Mengapa tidak saya buat button untuk menggeser ke kanan dan ke kiri?" karena jika buah jatuh di sudut kanan dan kiri buah tersebut tetap dapat terlihat, jika dibuat button, buah yang jatuh kemungkinan tidak terlihat. Lalu ada fitur "Pause" yang jika di klik akan muncul tampilan seperti ini. 





      

     Gambar diatas merupakan fitur pause nya, di dalam pause tersebut ada 3 button yaitu sound, back to game, dan home (back to main menu). Jika button sound diklik maka tampilan nya seperti yang dibawahnya jadi anak - anak bebas ingin bermain dengan suara ataupun tidak, fitur pause dibuat seperti ini karena agar cocok dengan anak - anak, karena anak - anak umur 2 - 3 tahun belum terlalu bisa membaca tulisan maka saya menggunakan gambar agar lebih dimengerti.

     Mungkin ini saja yang akan saya share ke anda - anda semua, semoga anda yang membaca suka dengan design saya. Jika ada kritik dan saran bisa anda tulis pada komentar blog ini karena saya juga masih amatir dalam hal ini.


Terima Kasih