Android深入淺出之Binder機制 一 說明 Android系統(tǒng)最常見也是初學者最難搞明白的就是Binder了,很多很多的Service就是通過Binder機制來和客戶端通訊交互的。所以搞明白Binder的話,在很大程度上就能理解程序運行的流程。 我們這里將以MediaService的例子來分析Binder的使用: <!--[if !supportLists]-->l <!--[endif]-->ServiceManager,這是Android OS的整個服務的管理程序 <!--[if !supportLists]-->l <!--[endif]-->MediaService,這個程序里邊注冊了提供媒體播放的服務程序MediaPlayerService,我們最后只分析這個 <!--[if !supportLists]-->l <!--[endif]-->MediaPlayerClient,這個是與MediaPlayerService交互的客戶端程序 下面先講講MediaService應用程序。 二 MediaService的誕生 MediaService是一個應用程序,雖然Android搞了七七八八的JAVA之類的東西,但是在本質上,它還是一個完整的Linux操作系統(tǒng),也還沒有牛到什么應用程序都是JAVA寫。所以,MS(MediaService)就是一個和普通的C++應用程序一樣的東西。 MediaService的源碼文件在:framework\base\Media\MediaServer\Main_mediaserver.cpp中。讓我們看看到底是個什么玩意兒! int main(int argc, char** argv) { //FT,就這么簡單?? //獲得一個ProcessState實例 sp<ProcessState> proc(ProcessState::self()); //得到一個ServiceManager對象 sp<IServiceManager> sm = defaultServiceManager(); MediaPlayerService::instantiate();//初始化MediaPlayerService服務 ProcessState::self()->startThreadPool();//看名字,啟動Process的線程池? IPCThreadState::self()->joinThreadPool();//將自己加入到剛才的線程池? } 其中,我們只分析MediaPlayerService。 這么多疑問,看來我們只有一個個函數(shù)深入分析了。不過,這里先簡單介紹下sp這個東西。 sp,究竟是smart pointer還是strong pointer呢?其實我后來發(fā)現(xiàn)不用太關注這個,就把它當做一個普通的指針看待,即sp<IServiceManager>======》IServiceManager*吧。sp是google搞出來的為了方便C/C++程序員管理指針的分配和釋放的一套方法,類似JAVA的什么WeakReference之類的。我個人覺得,要是自己寫程序的話,不用這個東西也成。 好了,以后的分析中,sp<XXX>就看成是XXX*就可以了。 2.1 ProcessState第一個調用的函數(shù)是ProcessState::self(),然后賦值給了proc變量,程序運行完,proc會自動delete內部的內容,所以就自動釋放了先前分配的資源。 ProcessState位置在framework\base\libs\binder\ProcessState.cpp sp<ProcessState> ProcessState::self() { if (gProcess != NULL) return gProcess;---->第一次進來肯定不走這兒 AutoMutex _l(gProcessMutex);--->鎖保護 if (gProcess == NULL) gProcess = new ProcessState;--->創(chuàng)建一個ProcessState對象 return gProcess;--->看見沒,這里返回的是指針,但是函數(shù)返回的是sp<xxx>,所以 //把sp<xxx>看成是XXX*是可以的 } 再來看看ProcessState構造函數(shù) //這個構造函數(shù)看來很重要 ProcessState::ProcessState() : mDriverFD(open_driver())----->Android很多代碼都是這么寫的,稍不留神就沒看見這里調用了一個很重要的函數(shù) , mVMStart(MAP_FAILED)//映射內存的起始地址 , mManagesContexts(false) , mBinderContextCheckFunc(NULL) , mBinderContextUserData(NULL) , mThreadPoolStarted(false) , mThreadPoolSeq(1) { if (mDriverFD >= 0) { //BIDNER_VM_SIZE定義為(1*1024*1024) - (4096 *2) 1M-8K mVMStart = mmap(0, BINDER_VM_SIZE, PROT_READ, MAP_PRIVATE | MAP_NORESERVE, mDriverFD, 0);//這個需要你自己去man mmap的用法了,不過大概意思就是 //將fd映射為內存,這樣內存的memcpy等操作就相當于write/read(fd)了 } ... } 最討厭這種在構造list中添加函數(shù)的寫法了,常常疏忽某個變量的初始化是一個函數(shù)調用的結果。 open_driver,就是打開/dev/binder這個設備,這個是android在內核中搞的一個專門用于完成 進程間通訊而設置的一個虛擬的設備。BTW,說白了就是內核的提供的一個機制,這個和我們用socket加NET_LINK方式和內核通訊是一個道理。 static int open_driver() { int fd = open("/dev/binder", O_RDWR);//打開/dev/binder if (fd >= 0) { .... size_t maxThreads = 15; //通過ioctl方式告訴內核,這個fd支持最大線程數(shù)是15個。 result = ioctl(fd, BINDER_SET_MAX_THREADS, &maxThreads); } return fd; 好了,到這里Process::self就分析完了,到底干什么了呢? <!--[if !supportLists]-->l <!--[endif]-->打開/dev/binder設備,這樣的話就相當于和內核binder機制有了交互的通道 <!--[if !supportLists]-->l <!--[endif]-->映射fd到內存,設備的fd傳進去后,估計這塊內存是和binder設備共享的 接下來,就到調用defaultServiceManager()地方了。 2.2 defaultServiceManagerdefaultServiceManager位置在framework\base\libs\binder\IServiceManager.cpp中 sp<IServiceManager> defaultServiceManager() { if (gDefaultServiceManager != NULL) return gDefaultServiceManager; //又是一個單例,設計模式中叫 singleton。 { AutoMutex _l(gDefaultServiceManagerLock); if (gDefaultServiceManager == NULL) { //真正的gDefaultServiceManager是在這里創(chuàng)建的喔 gDefaultServiceManager = interface_cast<IServiceManager>( ProcessState::self()->getContextObject(NULL)); } } return gDefaultServiceManager; } -----》 gDefaultServiceManager = interface_cast<IServiceManager>( ProcessState::self()->getContextObject(NULL)); ProcessState::self,肯定返回的是剛才創(chuàng)建的gProcess,然后調用它的getContextObject,注意,傳進去的是NULL,即0 //回到ProcessState類, sp<IBinder> ProcessState::getContextObject(const sp<IBinder>& caller) { if (supportsProcesses()) {//該函數(shù)根據(jù)打開設備是否成功來判斷是否支持process, //在真機上肯定走這個 return getStrongProxyForHandle(0);//注意,這里傳入0 } } ----》進入到getStrongProxyForHandle,函數(shù)名字怪怪的,經(jīng)常嚴重阻礙大腦運轉 //注意這個參數(shù)的命名,handle。搞過windows的應該比較熟悉這個名字,這是對 //資源的一種標示,其實說白了就是某個數(shù)據(jù)結構,保存在數(shù)組中,然后handle是它在這個數(shù)組中的索引。--->就是這么一個玩意兒 sp<IBinder> ProcessState::getStrongProxyForHandle(int32_t handle) { sp<IBinder> result; AutoMutex _l(mLock); handle_entry* e = lookupHandleLocked(handle);--》哈哈,果然,從數(shù)組中查找對應 索引的資源,lookupHandleLocked這個就不說了,內部會返回一個handle_entry 下面是 handle_entry 的結構 /* struct handle_entry { IBinder* binder;--->Binder RefBase::weakref_type* refs;-->不知道是什么,不影響. }; */ if (e != NULL) { IBinder* b = e->binder; -->第一次進來,肯定為空 if (b == NULL || !e->refs->attemptIncWeak(this)) { b = new BpBinder(handle); --->看見了吧,創(chuàng)建了一個新的BpBinder e->binder = b; result = b; }.... } return result; 返回剛才創(chuàng)建的BpBinder。 } //到這里,是不是有點亂了?對,當人腦分析的函數(shù)調用太深的時候,就容易忘記。 我們是從gDefaultServiceManager = interface_cast<IServiceManager>( ProcessState::self()->getContextObject(NULL)); 開始搞的,現(xiàn)在,這個函數(shù)調用將變成 gDefaultServiceManager = interface_cast<IServiceManager>(new BpBinder(0)); BpBinder又是個什么玩意兒?Android名字起得太眼花繚亂了。 因為還沒介紹Binder機制的大架構,所以這里介紹BpBinder不合適,但是又講到BpBinder了,不介紹Binder架構似乎又說不清楚....,sigh! 恩,還是繼續(xù)把層層深入的函數(shù)調用?;睘楹啺?,至少大腦還可以工作。先看看BpBinder的構造函數(shù)把。 2.3 BpBinderBpBinder位置在framework\base\libs\binder\BpBinder.cpp中。 BpBinder::BpBinder(int32_t handle) : mHandle(handle) //注意,接上述內容,這里調用的時候傳入的是0 , mAlive(1) , mObitsSent(0) , mObituaries(NULL) { IPCThreadState::self()->incWeakHandle(handle);//FT,竟然到IPCThreadState::self() } 這里一塊說說吧,IPCThreadState::self估計怎么著又是一個singleton吧? //該文件位置在framework\base\libs\binder\IPCThreadState.cpp IPCThreadState* IPCThreadState::self() { if (gHaveTLS) {//第一次進來為false restart: const pthread_key_t k = gTLS; //TLS是Thread Local Storage的意思,不懂得自己去google下它的作用吧。這里只需要 //知道這種空間每個線程有一個,而且線程間不共享這些空間,好處是?我就不用去搞什么 //同步了。在這個線程,我就用這個線程的東西,反正別的線程獲取不到其他線程TLS中的數(shù)據(jù)。===》這句話有漏洞,鉆牛角尖的明白大概意思就可以了。 //從線程本地存儲空間中獲得保存在其中的IPCThreadState對象 //這段代碼寫法很晦澀,看見沒,只有pthread_getspecific,那么肯定有地方調用 // pthread_setspecific。 IPCThreadState* st = (IPCThreadState*)pthread_getspecific(k); if (st) return st; return new IPCThreadState;//new一個對象, }
if (gShutdown) return NULL;
pthread_mutex_lock(&gTLSMutex); if (!gHaveTLS) { if (pthread_key_create(&gTLS, threadDestructor) != 0) { pthread_mutex_unlock(&gTLSMutex); return NULL; } gHaveTLS = true; } pthread_mutex_unlock(&gTLSMutex); goto restart; //我FT,其實goto沒有我們說得那樣卑鄙,匯編代碼很多跳轉語句的。 //關鍵是要用好。 } //這里是構造函數(shù),在構造函數(shù)里邊pthread_setspecific IPCThreadState::IPCThreadState() : mProcess(ProcessState::self()), mMyThreadId(androidGetTid()) { pthread_setspecific(gTLS, this); clearCaller(); mIn.setDataCapacity(256); //mIn,mOut是兩個Parcel,干嘛用的???把它看成是命令的buffer吧。再深入解釋,又會大腦停擺的。 mOut.setDataCapacity(256); } 出來了,終于出來了....,恩,回到BpBinder那。 BpBinder::BpBinder(int32_t handle) : mHandle(handle) //注意,接上述內容,這里調用的時候傳入的是0 , mAlive(1) , mObitsSent(0) , mObituaries(NULL) { ...... IPCThreadState::self()->incWeakHandle(handle); 什么incWeakHandle,不講了.. } 喔,new BpBinder就算完了。到這里,我們創(chuàng)建了些什么呢? <!--[if !supportLists]-->l <!--[endif]-->ProcessState有了。 <!--[if !supportLists]-->l <!--[endif]-->IPCThreadState有了,而且是主線程的。 <!--[if !supportLists]-->l <!--[endif]-->BpBinder有了,內部handle值為0 gDefaultServiceManager = interface_cast<IServiceManager>(new BpBinder(0)); 終于回到原點了,大家是不是快瘋掉了? interface_cast,我第一次接觸的時候,把它看做類似的static_cast一樣的東西,然后死活也搞不明白 BpBinder*指針怎么能強轉為IServiceManager*,花了n多時間查看BpBinder是否和IServiceManager繼承還是咋的....。 終于,我用ctrl+鼠標(source insight)跟蹤進入了interface_cast IInterface.h位于framework/base/include/binder/IInterface.h template<typename INTERFACE> inline sp<INTERFACE> interface_cast(const sp<IBinder>& obj) { return INTERFACE::asInterface(obj); } 所以,上面等價于: inline sp<IServiceManager> interface_cast(const sp<IBinder>& obj) { return IServiceManager::asInterface(obj); } 看來,只能跟到IServiceManager了。 IServiceManager.h---》framework/base/include/binder/IServiceManager.h 看看它是如何定義的: 2.4 IServiceManagerclass IServiceManager : public IInterface { //ServiceManager,字面上理解就是Service管理類,管理什么?增加服務,查詢服務等 //這里僅列出增加服務addService函數(shù) public: DECLARE_META_INTERFACE(ServiceManager); virtual status_t addService( const String16& name, const sp<IBinder>& service) = 0; }; DECLARE_META_INTERFACE(ServiceManager)?? 怎么和MFC這么類似?微軟的影響很大啊!知道MFC的,有DELCARE肯定有IMPLEMENT 果然,這兩個宏DECLARE_META_INTERFACE和IMPLEMENT_META_INTERFACE(INTERFACE, NAME)都在 剛才的IInterface.h中定義。我們先看看DECLARE_META_INTERFACE這個宏往IServiceManager加了什么? 下面是DECLARE宏 #define DECLARE_META_INTERFACE(INTERFACE) \ static const android::String16 descriptor; \ static android::sp<I##INTERFACE> asInterface( \ const android::sp<android::IBinder>& obj); \ virtual const android::String16& getInterfaceDescriptor() const; \ I##INTERFACE(); \ virtual ~I##INTERFACE(); 我們把它兌現(xiàn)到IServiceManager就是: static const android::String16 descriptor; -->喔,增加一個描述字符串 static android::sp< IServiceManager > asInterface(const android::sp<android::IBinder>& obj) ---》增加一個asInterface函數(shù) virtual const android::String16& getInterfaceDescriptor() const; ---》增加一個get函數(shù) 估計其返回值就是descriptor這個字符串 IServiceManager (); \ virtual ~IServiceManager();增加構造和虛析購函數(shù)... 那IMPLEMENT宏在哪定義的呢? 見IServiceManager.cpp。位于framework/base/libs/binder/IServiceManager.cpp IMPLEMENT_META_INTERFACE(ServiceManager, "android.os.IServiceManager"); 下面是這個宏的定義 #define IMPLEMENT_META_INTERFACE(INTERFACE, NAME) \ const android::String16 I##INTERFACE::descriptor(NAME); \ const android::String16& \ I##INTERFACE::getInterfaceDescriptor() const { \ return I##INTERFACE::descriptor; \ } \ android::sp<I##INTERFACE> I##INTERFACE::asInterface( \ const android::sp<android::IBinder>& obj) \ { \ android::sp<I##INTERFACE> intr; \ if (obj != NULL) { \ intr = static_cast<I##INTERFACE*>( \ obj->queryLocalInterface( \ I##INTERFACE::descriptor).get()); \ if (intr == NULL) { \ intr = new Bp##INTERFACE(obj); \ } \ } \ return intr; \ } \ I##INTERFACE::I##INTERFACE() { } \ I##INTERFACE::~I##INTERFACE() { } \ 很麻煩吧?尤其是宏看著頭疼。趕緊兌現(xiàn)下吧。 const android::String16 IServiceManager::descriptor(“android.os.IServiceManager”); const android::String16& IServiceManager::getInterfaceDescriptor() const { return IServiceManager::descriptor;//返回上面那個android.os.IServiceManager } android::sp<IServiceManager> IServiceManager::asInterface( const android::sp<android::IBinder>& obj) { android::sp<IServiceManager> intr; if (obj != NULL) { intr = static_cast<IServiceManager *>( obj->queryLocalInterface(IServiceManager::descriptor).get()); if (intr == NULL) { intr = new BpServiceManager(obj); } } return intr; } IServiceManager::IServiceManager () { } IServiceManager::~ IServiceManager() { } 哇塞,asInterface是這么搞的啊,趕緊分析下吧,還是不知道interface_cast怎么把BpBinder*轉成了IServiceManager 我們剛才解析過的interface_cast<IServiceManager>(new BpBinder(0)), 原來就是調用asInterface(new BpBinder(0)) android::sp<IServiceManager> IServiceManager::asInterface( const android::sp<android::IBinder>& obj) { android::sp<IServiceManager> intr; if (obj != NULL) { .... intr = new BpServiceManager(obj); //神吶,終于看到和IServiceManager相關的東西了,看來 //實際返回的是BpServiceManager(new BpBinder(0)); } } return intr; } BpServiceManager是個什么玩意兒?p是什么個意思? 2.5 BpServiceManager終于可以講解點架構上的東西了。p是proxy即代理的意思,Bp就是BinderProxy,BpServiceManager,就是SM的Binder代理。既然是代理,那肯定希望對用戶是透明的,那就是說頭文件里邊不會有這個Bp的定義。是嗎? 果然,BpServiceManager就在剛才的IServiceManager.cpp中定義。 class BpServiceManager : public BpInterface<IServiceManager> //這種繼承方式,表示同時繼承BpInterface和IServiceManager,這樣IServiceManger的 addService必然在這個類中實現(xiàn) { public: //注意構造函數(shù)參數(shù)的命名 impl,難道這里使用了Bridge模式?真正完成操作的是impl對象? //這里傳入的impl就是new BpBinder(0) BpServiceManager(const sp<IBinder>& impl) : BpInterface<IServiceManager>(impl) { } virtual status_t addService(const String16& name, const sp<IBinder>& service) { 待會再說.. } 基類BpInterface的構造函數(shù)(經(jīng)過兌現(xiàn)后) //這里的參數(shù)又叫remote,唉,真是害人不淺啊。 inline BpInterface< IServiceManager >::BpInterface(const sp<IBinder>& remote) : BpRefBase(remote) { } BpRefBase::BpRefBase(const sp<IBinder>& o) : mRemote(o.get()), mRefs(NULL), mState(0) //o.get(),這個是sp類的獲取實際數(shù)據(jù)指針的一個方法,你只要知道 //它返回的是sp<xxxx>中xxx* 指針就行 { //mRemote就是剛才的BpBinder(0) ... } 好了,到這里,我們知道了: sp<IServiceManager> sm = defaultServiceManager(); 返回的實際是BpServiceManager,它的remote對象是BpBinder,傳入的那個handle參數(shù)是0。 現(xiàn)在重新回到MediaService。 int main(int argc, char** argv) { sp<ProcessState> proc(ProcessState::self()); sp<IServiceManager> sm = defaultServiceManager(); //上面的講解已經(jīng)完了 MediaPlayerService::instantiate();//實例化MediaPlayerservice //看來這里有名堂! ProcessState::self()->startThreadPool(); IPCThreadState::self()->joinThreadPool(); } 到這里,我們把binder設備打開了,得到一個BpServiceManager對象,這表明我們可以和SM打交道了,但是好像沒干什么有意義的事情吧? 2.6 MediaPlayerService那下面我們看看后續(xù)又干了什么?以MediaPlayerService為例。 它位于framework\base\media\libmediaplayerservice\libMediaPlayerService.cpp void MediaPlayerService::instantiate() { defaultServiceManager()->addService( //傳進去服務的名字,傳進去new出來的對象 String16("media.player"), new MediaPlayerService()); } MediaPlayerService::MediaPlayerService() { LOGV("MediaPlayerService created");//太簡單了 mNextConnId = 1; } defaultServiceManager返回的是剛才創(chuàng)建的BpServiceManager 調用它的addService函數(shù)。 MediaPlayerService從BnMediaPlayerService派生 class MediaPlayerService : public BnMediaPlayerService FT,MediaPlayerService從BnMediaPlayerService派生,BnXXX,BpXXX,快暈了。 Bn 是Binder Native的含義,是和Bp相對的,Bp的p是proxy代理的意思,那么另一端一定有一個和代理打交道的東西,這個就是Bn。 講到這里會有點亂喔。先分析下,到目前為止都構造出來了什么。 <!--[if !supportLists]-->l <!--[endif]-->BpServiceManager <!--[if !supportLists]-->l <!--[endif]-->BnMediaPlayerService 這兩個東西不是相對的兩端,從BnXXX就可以判斷,BpServiceManager對應的應該是BnServiceManager,BnMediaPlayerService對應的應該是BpMediaPlayerService。 我們現(xiàn)在在哪里?對了,我們現(xiàn)在是創(chuàng)建了BnMediaPlayerService,想把它加入到系統(tǒng)的中去。 喔,明白了。我創(chuàng)建一個新的Service—BnMediaPlayerService,想把它告訴ServiceManager。 那我怎么和ServiceManager通訊呢?恩,利用BpServiceManager。所以嘛,我調用了BpServiceManager的addService函數(shù)! 為什么要搞個ServiceManager來呢?這個和Android機制有關系。所有Service都需要加入到ServiceManager來管理。同時也方便了Client來查詢系統(tǒng)存在哪些Service,沒看見我們傳入了字符串嗎?這樣就可以通過Human Readable的字符串來查找Service了。 ---》感覺沒說清楚...饒恕我吧。 2.7 addServiceaddService是調用的BpServiceManager的函數(shù)。前面略去沒講,現(xiàn)在我們看看。 virtual status_t addService(const String16& name, const sp<IBinder>& service) { Parcel data, reply; //data是發(fā)送到BnServiceManager的命令包 //看見沒?先把Interface名字寫進去,也就是什么android.os.IServiceManager data.writeInterfaceToken(IServiceManager::getInterfaceDescriptor()); //再把新service的名字寫進去 叫media.player data.writeString16(name); //把新服務service—>就是MediaPlayerService寫到命令中 data.writeStrongBinder(service); //調用remote的transact函數(shù) status_t err = remote()->transact(ADD_SERVICE_TRANSACTION, data, &reply); return err == NO_ERROR ? reply.readInt32() : err; } 我的天,remote()返回的是什么? remote(){ return mRemote; }-->?。空也坏綄膶嶋H對象了??? 還記得我們剛才初始化時候說的: “這里的參數(shù)又叫remote,唉,真是害人不淺啊“ 原來,這里的mRemote就是最初創(chuàng)建的BpBinder.. 好吧,到那里去看看: BpBinder的位置在framework\base\libs\binder\BpBinder.cpp status_t BpBinder::transact( uint32_t code, const Parcel& data, Parcel* reply, uint32_t flags) { //又繞回去了,調用IPCThreadState的transact。 //注意啊,這里的mHandle為0,code是ADD_SERVICE_TRANSACTION,data是命令包 //reply是回復包,flags=0 status_t status = IPCThreadState::self()->transact( mHandle, code, data, reply, flags); if (status == DEAD_OBJECT) mAlive = 0; return status; } ... } 再看看IPCThreadState的transact函數(shù)把 status_t IPCThreadState::transact(int32_t handle, uint32_t code, const Parcel& data, Parcel* reply, uint32_t flags) { status_t err = data.errorCheck(); flags |= TF_ACCEPT_FDS;
if (err == NO_ERROR) { //調用writeTransactionData 發(fā)送數(shù)據(jù) err = writeTransactionData(BC_TRANSACTION, flags, handle, code, data, NULL); }
if ((flags & TF_ONE_WAY) == 0) { if (reply) { err = waitForResponse(reply); } else { Parcel fakeReply; err = waitForResponse(&fakeReply); } ....等回復 err = waitForResponse(NULL, NULL); .... return err; } 再進一步,瞧瞧這個... status_t IPCThreadState::writeTransactionData(int32_t cmd, uint32_t binderFlags, int32_t handle, uint32_t code, const Parcel& data, status_t* statusBuffer) { binder_transaction_data tr; tr.target.handle = handle; tr.code = code; tr.flags = binderFlags;
const status_t err = data.errorCheck(); if (err == NO_ERROR) { tr.data_size = data.ipcDataSize(); tr.data.ptr.buffer = data.ipcData(); tr.offsets_size = data.ipcObjectsCount()*sizeof(size_t); tr.data.ptr.offsets = data.ipcObjects(); } .... 上面把命令數(shù)據(jù)封裝成binder_transaction_data,然后 寫到mOut中,mOut是命令的緩沖區(qū),也是一個Parcel mOut.writeInt32(cmd); mOut.write(&tr, sizeof(tr)); //僅僅寫到了Parcel中,Parcel好像沒和/dev/binder設備有什么關聯(lián)?。?span lang="EN-US"> 恩,那只能在另外一個地方寫到binder設備中去了。難道是在? return NO_ERROR; } //說對了,就是在waitForResponse中 status_t IPCThreadState::waitForResponse(Parcel *reply, status_t *acquireResult) { int32_t cmd; int32_t err; while (1) { //talkWithDriver,哈哈,應該是這里了 if ((err=talkWithDriver()) < NO_ERROR) break; err = mIn.errorCheck(); if (err < NO_ERROR) break; if (mIn.dataAvail() == 0) continue; //看見沒?這里開始操作mIn了,看來talkWithDriver中 //把mOut發(fā)出去,然后從driver中讀到數(shù)據(jù)放到mIn中了。 cmd = mIn.readInt32(); switch (cmd) { case BR_TRANSACTION_COMPLETE: if (!reply && !acquireResult) goto finish; break; ..... return err; } status_t IPCThreadState::talkWithDriver(bool doReceive) { binder_write_read bwr; //中間東西太復雜了,不就是把mOut數(shù)據(jù)和mIn接收數(shù)據(jù)的處理后賦值給bwr嗎? status_t err; do { //用ioctl來讀寫 if (ioctl(mProcess->mDriverFD, BINDER_WRITE_READ, &bwr) >= 0) err = NO_ERROR; else err = -errno; } while (err == -EINTR); //到這里,回復數(shù)據(jù)就在bwr中了,bmr接收回復數(shù)據(jù)的buffer就是mIn提供的 if (bwr.read_consumed > 0) { mIn.setDataSize(bwr.read_consumed); mIn.setDataPosition(0); } return NO_ERROR; } 好了,到這里,我們發(fā)送addService的流程就徹底走完了。 BpServiceManager發(fā)送了一個addService命令到BnServiceManager,然后收到回復。 先繼續(xù)我們的main函數(shù)。 int main(int argc, char** argv) { sp<ProcessState> proc(ProcessState::self()); sp<IServiceManager> sm = defaultServiceManager(); MediaPlayerService::instantiate(); ---》該函數(shù)內部調用addService,把MediaPlayerService信息 add到ServiceManager中 ProcessState::self()->startThreadPool(); IPCThreadState::self()->joinThreadPool(); } 這里有個容易搞暈的地方: MediaPlayerService是一個BnMediaPlayerService,那么它是不是應該等著 BpMediaPlayerService來和他交互呢?但是我們沒看見MediaPlayerService有打開binder設備的操作?。?/span> 這個嘛,到底是繼續(xù)addService操作的另一端BnServiceManager還是先說 BnMediaPlayerService呢? 還是先說BnServiceManager吧。順便把系統(tǒng)的Binder架構說說。 2.8 BnServiceManager上面說了,defaultServiceManager返回的是一個BpServiceManager,通過它可以把命令請求發(fā)送到binder設備,而且handle的值為0。那么,系統(tǒng)的另外一端肯定有個接收命令的,那又是誰呢? 很可惜啊,BnServiceManager不存在,但確實有一個程序完成了BnServiceManager的工作,那就是service.exe(如果在windows上一定有exe后綴,叫service的名字太多了,這里加exe就表明它是一個程序) 位置在framework/base/cmds/servicemanger.c中。 int main(int argc, char **argv) { struct binder_state *bs; void *svcmgr = BINDER_SERVICE_MANAGER; bs = binder_open(128*1024);//應該是打開binder設備吧? binder_become_context_manager(bs) //成為manager svcmgr_handle = svcmgr; binder_loop(bs, svcmgr_handler);//處理BpServiceManager發(fā)過來的命令 } 看看binder_open是不是和我們猜得一樣? struct binder_state *binder_open(unsigned mapsize) { struct binder_state *bs; bs = malloc(sizeof(*bs)); .... bs->fd = open("/dev/binder", O_RDWR);//果然如此 .... bs->mapsize = mapsize; bs->mapped = mmap(NULL, mapsize, PROT_READ, MAP_PRIVATE, bs->fd, 0); } 再看看binder_become_context_manager int binder_become_context_manager(struct binder_state *bs) { return ioctl(bs->fd, BINDER_SET_CONTEXT_MGR, 0);//把自己設為MANAGER } binder_loop 肯定是從binder設備中讀請求,寫回復的這么一個循環(huán)吧? void binder_loop(struct binder_state *bs, binder_handler func) { int res; struct binder_write_read bwr; readbuf[0] = BC_ENTER_LOOPER; binder_write(bs, readbuf, sizeof(unsigned)); for (;;) {//果然是循環(huán) bwr.read_size = sizeof(readbuf); bwr.read_consumed = 0; bwr.read_buffer = (unsigned) readbuf; res = ioctl(bs->fd, BINDER_WRITE_READ, &bwr); //哈哈,收到請求了,解析命令 res = binder_parse(bs, 0, readbuf, bwr.read_consumed, func); } 這個...后面還要說嗎?? 恩,最后有一個類似handleMessage的地方處理各種各樣的命令。這個就是 svcmgr_handler,就在ServiceManager.c中 int svcmgr_handler(struct binder_state *bs, struct binder_txn *txn, struct binder_io *msg, struct binder_io *reply) { struct svcinfo *si; uint16_t *s; unsigned len; void *ptr; s = bio_get_string16(msg, &len); switch(txn->code) { case SVC_MGR_ADD_SERVICE: s = bio_get_string16(msg, &len); ptr = bio_get_ref(msg); if (do_add_service(bs, s, len, ptr, txn->sender_euid)) return -1; break; ... 其中,do_add_service真正添加BnMediaService信息 int do_add_service(struct binder_state *bs, uint16_t *s, unsigned len, void *ptr, unsigned uid) { struct svcinfo *si; si = find_svc(s, len);s是一個list si = malloc(sizeof(*si) + (len + 1) * sizeof(uint16_t)); si->ptr = ptr; si->len = len; memcpy(si->name, s, (len + 1) * sizeof(uint16_t)); si->name[len] = '\0'; si->death.func = svcinfo_death; si->death.ptr = si; si->next = svclist; svclist = si; //看見沒,這個svclist是一個列表,保存了當前注冊到ServiceManager 中的信息 } binder_acquire(bs, ptr);//這個嗎。當這個Service退出后,我希望系統(tǒng)通知我一下,好釋放上面malloc出來的資源。大概就是干這個事情的。 binder_link_to_death(bs, ptr, &si->death); return 0; } 喔,對于addService來說,看來ServiceManager把信息加入到自己維護的一個服務列表中了。 2.9 ServiceManager存在的意義為何需要一個這樣的東西呢? 原來,Android系統(tǒng)中Service信息都是先add到ServiceManager中,由ServiceManager來集中管理,這樣就可以查詢當前系統(tǒng)有哪些服務。而且,Android系統(tǒng)中某個服務例如MediaPlayerService的客戶端想要和MediaPlayerService通訊的話,必須先向ServiceManager查詢MediaPlayerService的信息,然后通過ServiceManager返回的東西再來和MediaPlayerService交互。 畢竟,要是MediaPlayerService身體不好,老是掛掉的話,客戶的代碼就麻煩了,就不知道后續(xù)新生的MediaPlayerService的信息了,所以只能這樣: <!--[if !supportLists]-->l <!--[endif]-->MediaPlayerService向SM注冊 <!--[if !supportLists]-->l <!--[endif]-->MediaPlayerClient查詢當前注冊在SM中的MediaPlayerService的信息 <!--[if !supportLists]-->l <!--[endif]-->根據(jù)這個信息,MediaPlayerClient和MediaPlayerService交互 另外,ServiceManager的handle標示是0,所以只要往handle是0的服務發(fā)送消息了,最終都會被傳遞到ServiceManager中去。 三 MediaService的運行 上一節(jié)的知識,我們知道了: <!--[if !supportLists]-->l <!--[endif]-->defaultServiceManager得到了BpServiceManager,然后MediaPlayerService 實例化后,調用BpServiceManager的addService函數(shù) <!--[if !supportLists]-->l <!--[endif]-->這個過程中,是service_manager收到addService的請求,然后把對應信息放到自己保存的一個服務list中 到這兒,我們可看到,service_manager有一個binder_looper函數(shù),專門等著從binder中接收請求。雖然service_manager沒有從BnServiceManager中派生,但是它肯定完成了BnServiceManager的功能。 同樣,我們創(chuàng)建了MediaPlayerService即BnMediaPlayerService,那它也應該: <!--[if !supportLists]-->l <!--[endif]-->打開binder設備 <!--[if !supportLists]-->l <!--[endif]-->也搞一個looper循環(huán),然后坐等請求 service,service,這個和網(wǎng)絡編程中的監(jiān)聽socket的工作很像嘛! 好吧,既然MediaPlayerService的構造函數(shù)沒有看到顯示的打開binder設備,那么我們看看它的父類即BnXXX又到底干了些什么呢? 3.1 MediaPlayerService打開binderclass MediaPlayerService : public BnMediaPlayerService // MediaPlayerService從BnMediaPlayerService派生 //而BnMediaPlayerService從BnInterface和IMediaPlayerService同時派生 class BnMediaPlayerService: public BnInterface<IMediaPlayerService> { public: virtual status_t onTransact( uint32_t code, const Parcel& data, Parcel* reply, uint32_t flags = 0); }; 看起來,BnInterface似乎更加和打開設備相關啊。 template<typename INTERFACE> class BnInterface : public INTERFACE, public BBinder { public: virtual sp<IInterface> queryLocalInterface(const String16& _descriptor); virtual const String16& getInterfaceDescriptor() const; protected: virtual IBinder* onAsBinder(); }; 兌現(xiàn)后變成 class BnInterface : public IMediaPlayerService, public BBinder BBinder?BpBinder?是不是和BnXXX以及BpXXX對應的呢?如果是,為什么又叫BBinder呢? BBinder::BBinder() : mExtras(NULL) { //沒有打開設備的地方?。?/p> } 完了?難道我們走錯方向了嗎?難道不是每個Service都有對應的binder設備fd嗎? ....... 回想下,我們的Main_MediaService程序,有哪里打開過binder嗎? int main(int argc, char** argv) { //對啊,我在ProcessState中不是打開過binder了嗎? sp<ProcessState> proc(ProcessState::self()); sp<IServiceManager> sm = defaultServiceManager(); MediaPlayerService::instantiate(); ...... 3.2 looper啊?原來打開binder設備的地方是和進程相關的啊?一個進程打開一個就可以了。那么,我在哪里進行類似的消息循環(huán)looper操作呢? ... //難道是下面兩個? ProcessState::self()->startThreadPool(); IPCThreadState::self()->joinThreadPool(); 看看startThreadPool吧 void ProcessState::startThreadPool() { ... spawnPooledThread(true); } void ProcessState::spawnPooledThread(bool isMain) { sp<Thread> t = new PoolThread(isMain);isMain是TRUE //創(chuàng)建線程池,然后run起來,和java的Thread何其像也。 t->run(buf); } PoolThread從Thread類中派生,那么此時會產(chǎn)生一個線程嗎?看看PoolThread和Thread的構造吧 PoolThread::PoolThread(bool isMain) : mIsMain(isMain) { } Thread::Thread(bool canCallJava)//canCallJava默認值是true : mCanCallJava(canCallJava), mThread(thread_id_t(-1)), mLock("Thread::mLock"), mStatus(NO_ERROR), mExitPending(false), mRunning(false) { } 喔,這個時候還沒有創(chuàng)建線程呢。然后調用PoolThread::run,實際調用了基類的run。 status_t Thread::run(const char* name, int32_t priority, size_t stack) { bool res; if (mCanCallJava) { res = createThreadEtc(_threadLoop,//線程函數(shù)是_threadLoop this, name, priority, stack, &mThread); } //終于,在run函數(shù)中,創(chuàng)建線程了。從此 主線程執(zhí)行 IPCThreadState::self()->joinThreadPool(); 新開的線程執(zhí)行_threadLoop 我們先看看_threadLoop int Thread::_threadLoop(void* user) { Thread* const self = static_cast<Thread*>(user); sp<Thread> strong(self->mHoldSelf); wp<Thread> weak(strong); self->mHoldSelf.clear(); do { ... if (result && !self->mExitPending) { result = self->threadLoop();哇塞,調用自己的threadLoop } } 我們是PoolThread對象,所以調用PoolThread的threadLoop函數(shù) virtual bool PoolThread ::threadLoop() { //mIsMain為true。 //而且注意,這是一個新的線程,所以必然會創(chuàng)建一個 新的IPCThreadState對象(記得線程本地存儲嗎?TLS),然后 IPCThreadState::self()->joinThreadPool(mIsMain); return false; } 主線程和工作線程都調用了joinThreadPool,看看這個干嘛了! void IPCThreadState::joinThreadPool(bool isMain) { mOut.writeInt32(isMain ? BC_ENTER_LOOPER : BC_REGISTER_LOOPER); status_t result; do { int32_t cmd; result = talkWithDriver(); result = executeCommand(cmd); } } while (result != -ECONNREFUSED && result != -EBADF); mOut.writeInt32(BC_EXIT_LOOPER); talkWithDriver(false); } 看到?jīng)]?有loop了,但是好像是有兩個線程都執(zhí)行了這個??!這里有兩個消息循環(huán)? 下面看看executeCommand status_t IPCThreadState::executeCommand(int32_t cmd) { BBinder* obj; RefBase::weakref_type* refs; status_t result = NO_ERROR; case BR_TRANSACTION: { binder_transaction_data tr; result = mIn.read(&tr, sizeof(tr)); //來了一個命令,解析成BR_TRANSACTION,然后讀取后續(xù)的信息 Parcel reply; if (tr.target.ptr) { //這里用的是BBinder。 sp<BBinder> b((BBinder*)tr.cookie); const status_t error = b->transact(tr.code, buffer, &reply, 0); } 讓我們看看BBinder的transact函數(shù)干嘛了 status_t BBinder::transact( uint32_t code, const Parcel& data, Parcel* reply, uint32_t flags) { 就是調用自己的onTransact函數(shù)嘛 err = onTransact(code, data, reply, flags); return err; } BnMediaPlayerService從BBinder派生,所以會調用到它的onTransact函數(shù) 終于水落石出了,讓我們看看BnMediaPlayerServcice的onTransact函數(shù)。 status_t BnMediaPlayerService::onTransact( uint32_t code, const Parcel& data, Parcel* reply, uint32_t flags) { // BnMediaPlayerService從BBinder和IMediaPlayerService派生,所有IMediaPlayerService //看到下面的switch沒?所有IMediaPlayerService提供的函數(shù)都通過命令類型來區(qū)分 // switch(code) { case CREATE_URL: { CHECK_INTERFACE(IMediaPlayerService, data, reply); create是一個虛函數(shù),由MediaPlayerService來實現(xiàn)?。?span lang="EN-US"> sp<IMediaPlayer> player = create( pid, client, url, numHeaders > 0 ? &headers : NULL); reply->writeStrongBinder(player->asBinder()); return NO_ERROR; } break; 其實,到這里,我們就明白了。BnXXX的onTransact函數(shù)收取命令,然后派發(fā)到派生類的函數(shù),由他們完成實際的工作。 說明: 這里有點特殊,startThreadPool和joinThreadPool完后確實有兩個線程,主線程和工作線程,而且都在做消息循環(huán)。為什么要這么做呢?他們參數(shù)isMain都是true。不知道google搞什么。難道是怕一個線程工作量太多,所以搞兩個線程來工作?這種解釋應該也是合理的。 網(wǎng)上有人測試過把最后一句屏蔽掉,也能正常工作。但是難道主線程提出了,程序還能不退出嗎?這個...管它的,反正知道有兩個線程在那處理就行了。 四 MediaPlayerClient 這節(jié)講講MediaPlayerClient怎么和MediaPlayerService交互。 使用MediaPlayerService的時候,先要創(chuàng)建它的BpMediaPlayerService。我們看看一個例子 IMediaDeathNotifier::getMediaPlayerService() { sp<IServiceManager> sm = defaultServiceManager(); sp<IBinder> binder; do { //向SM查詢對應服務的信息,返回binder binder = sm->getService(String16("media.player")); if (binder != 0) { break; } usleep(500000); // 0.5 s } while(true); //通過interface_cast,將這個binder轉化成BpMediaPlayerService //注意,這個binder只是用來和binder設備通訊用的,實際 //上和IMediaPlayerService的功能一點關系都沒有。 //還記得我說的Bridge模式嗎?BpMediaPlayerService用這個binder和BnMediaPlayerService //通訊。 sMediaPlayerService = interface_cast<IMediaPlayerService>(binder); } return sMediaPlayerService; } 為什么反復強調這個Bridge?其實也不一定是Bridge模式,但是我真正想說明的是: Binder其實就是一個和binder設備打交道的接口,而上層IMediaPlayerService只不過把它當做一個類似socket使用罷了。我以前經(jīng)常把binder和上層類IMediaPlayerService的功能混到一起去。 當然,你們不一定會犯這個錯誤。但是有一點請注意: 4.1 Native層剛才那個getMediaPlayerService代碼是C++層的,但是整個使用的例子確實JAVA->JNI層的調用。如果我要寫一個純C++的程序該怎么辦? int main() { getMediaPlayerService();直接調用這個函數(shù)能獲得BpMediaPlayerService嗎? 不能,為什么?因為我還沒打開binder驅動吶!但是你在JAVA應用程序里邊卻有google已經(jīng)替你 封裝好了。 所以,純native層的代碼,必須也得像下面這樣處理: sp<ProcessState> proc(ProcessState::self());//這個其實不是必須的,因為 //好多地方都需要這個,所以自動也會創(chuàng)建. getMediaPlayerService(); 還得起消息循環(huán)吶,否則如果Bn那邊有消息通知你,你怎么接受得到呢? ProcessState::self()->startThreadPool(); //至于主線程是否也需要調用消息循環(huán),就看個人而定了。不過一般是等著接收其他來源的消息,例如socket發(fā)來的命令,然后控制MediaPlayerService就可以了。 } 五 實現(xiàn)自己的Service 好了,我們學習了這么多Binder的東西,那么想要實現(xiàn)一個自己的Service該咋辦呢? 如果是純C++程序的話,肯定得類似main_MediaService那樣干了。 int main() { sp<ProcessState> proc(ProcessState::self()); sp<IServiceManager> sm = defaultServiceManager(); sm->addService(“service.name”,new XXXService()); ProcessState::self()->startThreadPool(); IPCThreadState::self()->joinThreadPool(); } 看看XXXService怎么定義呢? 我們需要一個Bn,需要一個Bp,而且Bp不用暴露出來。那么就在BnXXX.cpp中一起實現(xiàn)好了。 另外,XXXService提供自己的功能,例如getXXX調用 5.1 定義XXX接口XXX接口是和XXX服務相關的,例如提供getXXX,setXXX函數(shù),和應用邏輯相關。 需要從IInterface派生 class IXXX: public IInterface { public: DECLARE_META_INTERFACE(XXX);申明宏 virtual getXXX() = 0; virtual setXXX() = 0; }這是一個接口。 5.2 定義BnXXX和BpXXX為了把IXXX加入到Binder結構,需要定義BnXXX和對客戶端透明的BpXXX。 其中BnXXX是需要有頭文件的。BnXXX只不過是把IXXX接口加入到Binder架構中來,而不參與實際的getXXX和setXXX應用層邏輯。 這個BnXXX定義可以和上面的IXXX定義放在一塊。分開也行。 class BnXXX: public BnInterface<IXXX> { public: virtual status_t onTransact( uint32_t code, const Parcel& data, Parcel* reply, uint32_t flags = 0); //由于IXXX是個純虛類,而BnXXX只實現(xiàn)了onTransact函數(shù),所以BnXXX依然是 一個純虛類 }; 有了DECLARE,那我們在某個CPP中IMPLEMNT它吧。那就在IXXX.cpp中吧。 IMPLEMENT_META_INTERFACE(XXX, "android.xxx.IXXX");//IMPLEMENT宏 status_t BnXXX::onTransact( uint32_t code, const Parcel& data, Parcel* reply, uint32_t flags) { switch(code) { case GET_XXX: { CHECK_INTERFACE(IXXX, data, reply); 讀請求參數(shù) 調用虛函數(shù)getXXX() return NO_ERROR; } break; //SET_XXX類似 BpXXX也在這里實現(xiàn)吧。 class BpXXX: public BpInterface<IXXX> { public: BpXXX (const sp<IBinder>& impl) : BpInterface< IXXX >(impl) { } vitural getXXX() { Parcel data, reply; data.writeInterfaceToken(IXXX::getInterfaceDescriptor()); data.writeInt32(pid); remote()->transact(GET_XXX, data, &reply); return; } //setXXX類似 至此,Binder就算分析完了,大家看完后,應該能做到以下幾點: <!--[if !supportLists]-->l <!--[endif]-->如果需要寫自己的Service的話,總得知道系統(tǒng)是怎么個調用你的函數(shù),恩。對。有2個線程在那不停得從binder設備中收取命令,然后調用你的函數(shù)呢。恩,這是個多線程問題。 <!--[if !supportLists]-->l <!--[endif]-->如果需要跟蹤bug的話,得知道從Client端調用的函數(shù),是怎么最終傳到到遠端的Service。這樣,對于一些函數(shù)調用,Client端跟蹤完了,我就知道轉到Service去看對應函數(shù)調用了。反正是同步方式。也就是Client一個函數(shù)調用會一直等待到Service返回為止。
|
|