Sabtu, 06 Juli 2013

Implementasi penggunaaan software

Tugas 1 Bahasa Indonesia2

IMPLEMENTASI SISTEM PENGENALAN SUARA MENGGUNAKAN SAPI 5.1 DAN DELPHI 5


SAPI (Speech Application Programming Interface)


Latar Belakang

Bahasa merupakan media berkomunikasi manusia,bahasa memudahkan arti dan maksud yang ditujukan kepada lawan bicara,dunia yang semakin maju memungkinkan lawan bicara bukan hanya manusia lagi,melainkan komputer.

Komputer nantinya dijadikan sebagai media bahasa,batasan perbedaan berbahaSa memjadi tidak berarti karena peran komputer dapat mampu mengartikan bahasa yang kita maksud.

Tujuan Penelitian

Dengan adanya SAPI memungkinkan pembuat aplikasi untuk mengimplementasikan system pengenalan pembicaraan dengan menggunakan engine sesuai yang diinginkan dan dapat mengganti penggunaan dari satu engine ke engine yang lain tanpa merubah aplikasi yang telah dibuat.


PENDAHULUAN

       Sistem pengenalan pembicaraan pada aplikasi komputer sekarang 
sudah bukan merupakan hal yang baru. Diantaranya  yang cukup 
terkenal adalah penelitian yang dilakukan oleh  Microsoft Corporation.
 
Microsoft telah mengembangkan sistem pengenalan 
pembicaraan yang diimplementasikan pada sistem operasi Windows. 
Pada sistem ini juga dikembangkan standard interface SAPI (Speech 
Application Programming Interface) yang saat ini telah mencapai versi 
5.1. 

 SISTEM PENGENALAN PEMBICARAAN

Terdapat dua macam mode pada sistem
pengenalan pembicaraan yaitu:

1. Mode diktasi. Pada mode ini pengguna
   komputer dapat mengucapkan kata/
   kalimat yang selanjutnya akan dikenali
   oleh komputer dan diubah menjadi data
   teks.
2. Mode command and control. Pada mode ini 
   pengguna komputer mengucapkan 
   kata/kalimat yang sudah terdefinisi terlebih 
   dahulu pada database dan selanjutnya akan 
digunakan untuk menjalankan perintah 
tertentu pada aplikasi komputer

ARSITEKTUR SPEECH APPLICATION PROGRAMMING INTERFACE (SAPI 5.1)


SAPI 5.1 terdiri dari 2 antar muka yaitu
application programming interface (API)
dan device driver interface (DDI).

1.1 Application Programming Interface
(API)Pada sistem pengenalan pembicaraan,
aplikasi akan menerima even pada saat suara
yang diterima telah dikenali oleh engine.

Komponen SAPI yang akan menghasilkan even ini diimplementasikan oleh antar muka ISpNotifySource. Lebih spesifik,SAPI menggunakan SetNotifySink, yaitu aplikasi akan meneruskan pointer IspNotifySink ke ISpNotifySource:: SetNotifySink.ISpNotifySource::SetNotifySink ini akan menerima pemanggilan melalui IspNotifySink:: Notify ketika terdapat satu atau lebih even yang menyatakan bahwa aplikasi dapat mengambil data. Biasanya aplikasi tidak mengimplementasikan ISpNotifySink secara langsung tetapi menggunakan CoCreate Instance untuk membuat obyek IspNotify Sink, yang diimplementasikan oleh komponen CLSID_SpNotify. Obyek ini menyediakan antar muka ISpNotifyControl


Tetapi antar muka ISpNotifySource dan ISpNotifySink hanya menyediakan mekanisme untuk notifikasi dan tidak ada even yang ditimbulkan oleh notifikasi tersebut.Dengan menggunakan obyek IspEventSource, aplikasi dapat menerima informasi tentang even yang ditimbulkan oleh notifikasi. ISpEventSource juga menyediakan mekanisme untuk menyaring dan membuat antrian even. Biasanya aplikasi tidak menerima notifikasi dari IspEvent Source sampai terjadi pemanggilan terhadap ISpEventSource::SetInterest untuk menentukan even mana yang akan menghasilkan notifikasi dan even mana yang berulang sehingga harus dimasukkan ke daftar antrian. Even diidentifikasi dengan menggunakan tanda SPEVENTENUM.

Ketika aplikasi menerima notifikasi, ada kemungkinan terdapat informasi yang sama pada beberapa even. Dengan memanggil ISpEventSource::GetInfo, maka variable anggota ulCount akan mengembalikan nilai yang berupa struktur SPEVENT SOURCEINFO yang didalamnya terdapat jumlah even yang mempunyai informasi yang sama. Dengan menggunakan IspEvent Source::GetEvents, aplikasi akan mengeluarkan sejumlah struktur SPEVENT, dimana masing-masing mempunyai informasi tentang even tertentu.

Pengujian dilakukan oleh dua orang yang berbeda dengan melakukan diktasi dua paragraf artikel yang mempunyai jumlah kata berbeda, masing-masing diulangi sebanyak tiga kali dan kemudian dihitung jumlah kata yang dikenali secara benar oleh sistem untuk menentukan persentase keakuratan pengenalan pembicaraan.

Dari tabel pengujian system, bahwa rata-rata persentase keakuratan sistem adalah sekitar 85 %, dan sistem akan menjadi semakin akurat setelah dilakukan beberapa kali percobaan yang sama. Jadi dengan semakin sering sistem digunakan, maka keakuratan akan menjadi semakin tinggi.

KESIMPULAN DAN SARAN

- Dengan menggunakan Microsoft Speech Engine pembuat aplikasi dapat mengimplementasikan kemampuan pengenalan pembicaraan yang dibuat untuk sistemoperasi Windows secara cepat dan mudah dan tidak tergantung bahasa pemrograman yang dipakai.

- Dengan menggunakan SAPI 5.1 untuk pengenalan pembicaraan, aplikasi tidak
terbatas menggunakan salah satu engine tertentu saja untuk pengenalan pembicaraan, tetapi dapat menggunakan engine lain yang diinginkan selama
engine tersebut didesain sesuai dengan

standard SAPI 5.1.
- SAPI 5.1 memberikan hampir semua ntar muka, tipe dan konstanta yang
penting melalui registered type library, sehingga memungkinkan pembuat aplikasi untuk mengakses SAPI 5.1 melalui late bound ataupun early bound automation secara mudah.
- Untuk pengembangan lebih lanjut bias dilakukan perbandingan kemampuan
engine yang mendukung SAPI 5.1 yang ada di pasaran sehingga didapatkan
engine yang mempunyai keakuratan tinggi.

DAFTAR PUSTAKA


1. Amundsen, Michael C. MAPI, SAPI, and
TAPI Developer's Guide. Indianapolis :
Sams Publishing. 1996.
2. Long, Brian. Speech Synthesis & Speech
Recognition. http://www.blong.com/
Conferences/DCon2002/Speech/Speech.h
tm
3. Microsoft Website. http://microsoft.com/
speech/techinfo/apioverview/
4. Microsoft Speech SDK 5.1


Tidak ada komentar:

Posting Komentar