Whamcloud - gitweb
LU-6142 ko2iblnd: remove typedefs from ko2iblnd
[fs/lustre-release.git] / lnet / klnds / o2iblnd / o2iblnd_cb.c
index 752e352..eba63b1 100644 (file)
 
 #define MAX_CONN_RACES_BEFORE_ABORT 20
 
-static void kiblnd_peer_alive(kib_peer_ni_t *peer_ni);
-static void kiblnd_peer_connect_failed(kib_peer_ni_t *peer_ni, int active, int error);
-static void kiblnd_init_tx_msg(struct lnet_ni *ni, kib_tx_t *tx,
+static void kiblnd_peer_alive(struct kib_peer_ni *peer_ni);
+static void kiblnd_peer_connect_failed(struct kib_peer_ni *peer_ni, int active,
+                                      int error);
+static void kiblnd_init_tx_msg(struct lnet_ni *ni, struct kib_tx *tx,
                               int type, int body_nob);
-static int kiblnd_init_rdma(kib_conn_t *conn, kib_tx_t *tx, int type,
-                           int resid, kib_rdma_desc_t *dstrd, __u64 dstcookie);
-static void kiblnd_queue_tx_locked(kib_tx_t *tx, kib_conn_t *conn);
-static void kiblnd_queue_tx(kib_tx_t *tx, kib_conn_t *conn);
+static int kiblnd_init_rdma(struct kib_conn *conn, struct kib_tx *tx, int type,
+                           int resid, struct kib_rdma_desc *dstrd, u64 dstcookie);
+static void kiblnd_queue_tx_locked(struct kib_tx *tx, struct kib_conn *conn);
+static void kiblnd_queue_tx(struct kib_tx *tx, struct kib_conn *conn);
 
-static void kiblnd_unmap_tx(kib_tx_t *tx);
-static void kiblnd_check_sends_locked(kib_conn_t *conn);
+static void kiblnd_unmap_tx(struct kib_tx *tx);
+static void kiblnd_check_sends_locked(struct kib_conn *conn);
 
 void
-kiblnd_tx_done(kib_tx_t *tx)
+kiblnd_tx_done(struct kib_tx *tx)
 {
        struct lnet_msg *lntmsg[2];
        int         rc;
@@ -92,10 +93,10 @@ kiblnd_tx_done(kib_tx_t *tx)
 void
 kiblnd_txlist_done(struct list_head *txlist, int status)
 {
-       kib_tx_t *tx;
+       struct kib_tx *tx;
 
        while (!list_empty(txlist)) {
-               tx = list_entry(txlist->next, kib_tx_t, tx_list);
+               tx = list_entry(txlist->next, struct kib_tx, tx_list);
 
                list_del(&tx->tx_list);
                /* complete now */
@@ -105,19 +106,19 @@ kiblnd_txlist_done(struct list_head *txlist, int status)
        }
 }
 
-static kib_tx_t *
+static struct kib_tx *
 kiblnd_get_idle_tx(struct lnet_ni *ni, lnet_nid_t target)
 {
-       kib_net_t               *net = (kib_net_t *)ni->ni_data;
-       struct list_head        *node;
-       kib_tx_t                *tx;
-       kib_tx_poolset_t        *tps;
+       struct kib_net *net = ni->ni_data;
+       struct list_head *node;
+       struct kib_tx *tx;
+       struct kib_tx_poolset *tps;
 
        tps = net->ibn_tx_ps[lnet_cpt_of_nid(target, ni)];
        node = kiblnd_pool_alloc_node(&tps->tps_poolset);
         if (node == NULL)
                 return NULL;
-        tx = container_of(node, kib_tx_t, tx_list);
+       tx = container_of(node, struct kib_tx, tx_list);
 
         LASSERT (tx->tx_nwrq == 0);
         LASSERT (!tx->tx_queued);
@@ -135,11 +136,11 @@ kiblnd_get_idle_tx(struct lnet_ni *ni, lnet_nid_t target)
 }
 
 static void
-kiblnd_drop_rx(kib_rx_t *rx)
+kiblnd_drop_rx(struct kib_rx *rx)
 {
-       kib_conn_t              *conn   = rx->rx_conn;
-       struct kib_sched_info   *sched  = conn->ibc_sched;
-       unsigned long           flags;
+       struct kib_conn *conn = rx->rx_conn;
+       struct kib_sched_info *sched = conn->ibc_sched;
+       unsigned long flags;
 
        spin_lock_irqsave(&sched->ibs_lock, flags);
        LASSERT(conn->ibc_nrx > 0);
@@ -150,15 +151,15 @@ kiblnd_drop_rx(kib_rx_t *rx)
 }
 
 int
-kiblnd_post_rx (kib_rx_t *rx, int credit)
+kiblnd_post_rx(struct kib_rx *rx, int credit)
 {
-       kib_conn_t         *conn = rx->rx_conn;
-       kib_net_t          *net = conn->ibc_peer->ibp_ni->ni_data;
-       struct ib_recv_wr  *bad_wrq = NULL;
+       struct kib_conn *conn = rx->rx_conn;
+       struct kib_net *net = conn->ibc_peer->ibp_ni->ni_data;
+       struct ib_recv_wr *bad_wrq = NULL;
 #ifdef HAVE_IB_GET_DMA_MR
-       struct ib_mr       *mr = conn->ibc_hdev->ibh_mrs;
+       struct ib_mr *mr = conn->ibc_hdev->ibh_mrs;
 #endif
-       int                 rc;
+       int rc;
 
        LASSERT (net != NULL);
        LASSERT (!in_interrupt());
@@ -226,13 +227,13 @@ out:
        return rc;
 }
 
-static kib_tx_t *
-kiblnd_find_waiting_tx_locked(kib_conn_t *conn, int txtype, __u64 cookie)
+static struct kib_tx *
+kiblnd_find_waiting_tx_locked(struct kib_conn *conn, int txtype, u64 cookie)
 {
        struct list_head *tmp;
 
        list_for_each(tmp, &conn->ibc_active_txs) {
-               kib_tx_t *tx = list_entry(tmp, kib_tx_t, tx_list);
+               struct kib_tx *tx = list_entry(tmp, struct kib_tx, tx_list);
 
                LASSERT(!tx->tx_queued);
                LASSERT(tx->tx_sending != 0 || tx->tx_waiting);
@@ -252,11 +253,11 @@ kiblnd_find_waiting_tx_locked(kib_conn_t *conn, int txtype, __u64 cookie)
 }
 
 static void
-kiblnd_handle_completion(kib_conn_t *conn, int txtype, int status, __u64 cookie)
+kiblnd_handle_completion(struct kib_conn *conn, int txtype, int status, u64 cookie)
 {
-       kib_tx_t    *tx;
-       struct lnet_ni   *ni = conn->ibc_peer->ibp_ni;
-       int          idle;
+       struct kib_tx *tx;
+       struct lnet_ni *ni = conn->ibc_peer->ibp_ni;
+       int idle;
 
        spin_lock(&conn->ibc_lock);
 
@@ -291,10 +292,10 @@ kiblnd_handle_completion(kib_conn_t *conn, int txtype, int status, __u64 cookie)
 }
 
 static void
-kiblnd_send_completion(kib_conn_t *conn, int type, int status, __u64 cookie)
+kiblnd_send_completion(struct kib_conn *conn, int type, int status, u64 cookie)
 {
-       struct lnet_ni   *ni = conn->ibc_peer->ibp_ni;
-       kib_tx_t    *tx = kiblnd_get_idle_tx(ni, conn->ibc_peer->ibp_nid);
+       struct lnet_ni *ni = conn->ibc_peer->ibp_ni;
+       struct kib_tx *tx = kiblnd_get_idle_tx(ni, conn->ibc_peer->ibp_nid);
 
         if (tx == NULL) {
                 CERROR("Can't get tx for completion %x for %s\n",
@@ -304,19 +305,19 @@ kiblnd_send_completion(kib_conn_t *conn, int type, int status, __u64 cookie)
 
         tx->tx_msg->ibm_u.completion.ibcm_status = status;
         tx->tx_msg->ibm_u.completion.ibcm_cookie = cookie;
-        kiblnd_init_tx_msg(ni, tx, type, sizeof(kib_completion_msg_t));
+       kiblnd_init_tx_msg(ni, tx, type, sizeof(struct kib_completion_msg));
 
         kiblnd_queue_tx(tx, conn);
 }
 
 static void
-kiblnd_handle_rx (kib_rx_t *rx)
+kiblnd_handle_rx(struct kib_rx *rx)
 {
-        kib_msg_t    *msg = rx->rx_msg;
-        kib_conn_t   *conn = rx->rx_conn;
-       struct lnet_ni    *ni = conn->ibc_peer->ibp_ni;
+       struct kib_msg *msg = rx->rx_msg;
+       struct kib_conn   *conn = rx->rx_conn;
+       struct lnet_ni *ni = conn->ibc_peer->ibp_ni;
         int           credits = msg->ibm_credits;
-        kib_tx_t     *tx;
+       struct kib_tx *tx;
         int           rc = 0;
         int           rc2;
         int           post_credit;
@@ -471,14 +472,14 @@ kiblnd_handle_rx (kib_rx_t *rx)
 }
 
 static void
-kiblnd_rx_complete (kib_rx_t *rx, int status, int nob)
+kiblnd_rx_complete(struct kib_rx *rx, int status, int nob)
 {
-        kib_msg_t    *msg = rx->rx_msg;
-        kib_conn_t   *conn = rx->rx_conn;
-       struct lnet_ni    *ni = conn->ibc_peer->ibp_ni;
-        kib_net_t    *net = ni->ni_data;
-        int           rc;
-        int           err = -EIO;
+       struct kib_msg *msg = rx->rx_msg;
+       struct kib_conn   *conn = rx->rx_conn;
+       struct lnet_ni *ni = conn->ibc_peer->ibp_ni;
+       struct kib_net *net = ni->ni_data;
+       int rc;
+       int err = -EIO;
 
         LASSERT (net != NULL);
         LASSERT (rx->rx_nob < 0);               /* was posted */
@@ -542,11 +543,12 @@ kiblnd_rx_complete (kib_rx_t *rx, int status, int nob)
 }
 
 static int
-kiblnd_fmr_map_tx(kib_net_t *net, kib_tx_t *tx, kib_rdma_desc_t *rd, __u32 nob)
+kiblnd_fmr_map_tx(struct kib_net *net, struct kib_tx *tx,
+                 struct kib_rdma_desc *rd, u32 nob)
 {
-       kib_hca_dev_t           *hdev;
-       kib_dev_t               *dev;
-       kib_fmr_poolset_t       *fps;
+       struct kib_hca_dev *hdev;
+       struct kib_dev *dev;
+       struct kib_fmr_poolset *fps;
        int                     cpt;
        int                     rc;
        int i;
@@ -630,7 +632,7 @@ kiblnd_fmr_map_tx(kib_net_t *net, kib_tx_t *tx, kib_rdma_desc_t *rd, __u32 nob)
 }
 
 static void
-kiblnd_unmap_tx(kib_tx_t *tx)
+kiblnd_unmap_tx(struct kib_tx *tx)
 {
        if (tx->tx_fmr.fmr_pfmr || tx->tx_fmr.fmr_frd)
                kiblnd_fmr_pool_unmap(&tx->tx_fmr, tx->tx_status);
@@ -644,10 +646,10 @@ kiblnd_unmap_tx(kib_tx_t *tx)
 
 #ifdef HAVE_IB_GET_DMA_MR
 static struct ib_mr *
-kiblnd_find_rd_dma_mr(struct lnet_ni *ni, kib_rdma_desc_t *rd)
+kiblnd_find_rd_dma_mr(struct lnet_ni *ni, struct kib_rdma_desc *rd)
 {
-       kib_net_t     *net   = ni->ni_data;
-       kib_hca_dev_t *hdev  = net->ibn_dev->ibd_hdev;
+       struct kib_net *net = ni->ni_data;
+       struct kib_hca_dev *hdev = net->ibn_dev->ibd_hdev;
        struct lnet_ioctl_config_o2iblnd_tunables *tunables;
 
        tunables = &ni->ni_lnd_tunables.lnd_tun_u.lnd_o2ib;
@@ -672,13 +674,13 @@ kiblnd_find_rd_dma_mr(struct lnet_ni *ni, kib_rdma_desc_t *rd)
 }
 #endif
 
-static int
-kiblnd_map_tx(struct lnet_ni *ni, kib_tx_t *tx, kib_rdma_desc_t *rd, int nfrags)
+static int kiblnd_map_tx(struct lnet_ni *ni, struct kib_tx *tx,
+                        struct kib_rdma_desc *rd, int nfrags)
 {
-       kib_net_t     *net   = ni->ni_data;
-       kib_hca_dev_t *hdev  = net->ibn_dev->ibd_hdev;
+       struct kib_net *net = ni->ni_data;
+       struct kib_hca_dev *hdev = net->ibn_dev->ibd_hdev;
 #ifdef HAVE_IB_GET_DMA_MR
-       struct ib_mr  *mr    = NULL;
+       struct ib_mr *mr = NULL;
 #endif
        __u32 nob;
        int i;
@@ -714,12 +716,12 @@ kiblnd_map_tx(struct lnet_ni *ni, kib_tx_t *tx, kib_rdma_desc_t *rd, int nfrags)
        return -EINVAL;
 }
 
-static int
-kiblnd_setup_rd_iov(struct lnet_ni *ni, kib_tx_t *tx, kib_rdma_desc_t *rd,
-                   unsigned int niov, struct kvec *iov, int offset, int nob)
+static int kiblnd_setup_rd_iov(struct lnet_ni *ni, struct kib_tx *tx,
+                              struct kib_rdma_desc *rd, unsigned int niov,
+                              struct kvec *iov, int offset, int nob)
 {
-        kib_net_t          *net = ni->ni_data;
-        struct page        *page;
+       struct kib_net *net = ni->ni_data;
+       struct page *page;
         struct scatterlist *sg;
         unsigned long       vaddr;
         int                 fragnob;
@@ -788,11 +790,11 @@ kiblnd_setup_rd_iov(struct lnet_ni *ni, kib_tx_t *tx, kib_rdma_desc_t *rd,
         return kiblnd_map_tx(ni, tx, rd, sg - tx->tx_frags);
 }
 
-static int
-kiblnd_setup_rd_kiov(struct lnet_ni *ni, kib_tx_t *tx, kib_rdma_desc_t *rd,
-                    int nkiov, lnet_kiov_t *kiov, int offset, int nob)
+static int kiblnd_setup_rd_kiov(struct lnet_ni *ni, struct kib_tx *tx,
+                               struct kib_rdma_desc *rd, int nkiov,
+                               lnet_kiov_t *kiov, int offset, int nob)
 {
-       kib_net_t          *net = ni->ni_data;
+       struct kib_net *net = ni->ni_data;
        struct scatterlist *sg;
        int                 fragnob;
        int                 max_nkiov;
@@ -850,11 +852,11 @@ kiblnd_setup_rd_kiov(struct lnet_ni *ni, kib_tx_t *tx, kib_rdma_desc_t *rd,
 }
 
 static int
-kiblnd_post_tx_locked (kib_conn_t *conn, kib_tx_t *tx, int credit)
+kiblnd_post_tx_locked(struct kib_conn *conn, struct kib_tx *tx, int credit)
 __must_hold(&conn->ibc_lock)
 {
-       kib_msg_t *msg = tx->tx_msg;
-       kib_peer_ni_t *peer_ni = conn->ibc_peer;
+       struct kib_msg *msg = tx->tx_msg;
+       struct kib_peer_ni *peer_ni = conn->ibc_peer;
        int ver = conn->ibc_version;
        int rc;
        int done;
@@ -1002,11 +1004,11 @@ __must_hold(&conn->ibc_lock)
 }
 
 static void
-kiblnd_check_sends_locked(kib_conn_t *conn)
+kiblnd_check_sends_locked(struct kib_conn *conn)
 {
-        int        ver = conn->ibc_version;
+       int ver = conn->ibc_version;
        struct lnet_ni *ni = conn->ibc_peer->ibp_ni;
-        kib_tx_t  *tx;
+       struct kib_tx *tx;
 
         /* Don't send anything until after the connection is established */
         if (conn->ibc_state < IBLND_CONN_ESTABLISHED) {
@@ -1024,7 +1026,7 @@ kiblnd_check_sends_locked(kib_conn_t *conn)
         while (conn->ibc_reserved_credits > 0 &&
               !list_empty(&conn->ibc_tx_queue_rsrvd)) {
                tx = list_entry(conn->ibc_tx_queue_rsrvd.next,
-                                    kib_tx_t, tx_list);
+                               struct kib_tx, tx_list);
                list_del(&tx->tx_list);
                list_add_tail(&tx->tx_list, &conn->ibc_tx_queue);
                 conn->ibc_reserved_credits--;
@@ -1048,16 +1050,16 @@ kiblnd_check_sends_locked(kib_conn_t *conn)
                if (!list_empty(&conn->ibc_tx_queue_nocred)) {
                         credit = 0;
                        tx = list_entry(conn->ibc_tx_queue_nocred.next,
-                                            kib_tx_t, tx_list);
+                                       struct kib_tx, tx_list);
                } else if (!list_empty(&conn->ibc_tx_noops)) {
                         LASSERT (!IBLND_OOB_CAPABLE(ver));
                         credit = 1;
                        tx = list_entry(conn->ibc_tx_noops.next,
-                                        kib_tx_t, tx_list);
+                                       struct kib_tx, tx_list);
                } else if (!list_empty(&conn->ibc_tx_queue)) {
                         credit = 1;
                        tx = list_entry(conn->ibc_tx_queue.next,
-                                            kib_tx_t, tx_list);
+                                       struct kib_tx, tx_list);
                 } else
                         break;
 
@@ -1067,10 +1069,10 @@ kiblnd_check_sends_locked(kib_conn_t *conn)
 }
 
 static void
-kiblnd_tx_complete (kib_tx_t *tx, int status)
+kiblnd_tx_complete(struct kib_tx *tx, int status)
 {
         int           failed = (status != IB_WC_SUCCESS);
-        kib_conn_t   *conn = tx->tx_conn;
+       struct kib_conn   *conn = tx->tx_conn;
         int           idle;
 
         LASSERT (tx->tx_sending > 0);
@@ -1117,12 +1119,13 @@ kiblnd_tx_complete (kib_tx_t *tx, int status)
 }
 
 static void
-kiblnd_init_tx_msg(struct lnet_ni *ni, kib_tx_t *tx, int type, int body_nob)
+kiblnd_init_tx_msg(struct lnet_ni *ni, struct kib_tx *tx, int type,
+                  int body_nob)
 {
-       kib_hca_dev_t *hdev = tx->tx_pool->tpo_hdev;
+       struct kib_hca_dev *hdev = tx->tx_pool->tpo_hdev;
        struct ib_sge *sge = &tx->tx_msgsge;
        struct ib_rdma_wr *wrq;
-       int nob = offsetof(kib_msg_t, ibm_u) + body_nob;
+       int nob = offsetof(struct kib_msg, ibm_u) + body_nob;
 #ifdef HAVE_IB_GET_DMA_MR
        struct ib_mr *mr = hdev->ibh_mrs;
 #endif
@@ -1158,11 +1161,11 @@ kiblnd_init_tx_msg(struct lnet_ni *ni, kib_tx_t *tx, int type, int body_nob)
 }
 
 static int
-kiblnd_init_rdma(kib_conn_t *conn, kib_tx_t *tx, int type,
-                int resid, kib_rdma_desc_t *dstrd, __u64 dstcookie)
+kiblnd_init_rdma(struct kib_conn *conn, struct kib_tx *tx, int type,
+                int resid, struct kib_rdma_desc *dstrd, u64 dstcookie)
 {
-       kib_msg_t         *ibmsg = tx->tx_msg;
-       kib_rdma_desc_t   *srcrd = tx->tx_rd;
+       struct kib_msg *ibmsg = tx->tx_msg;
+       struct kib_rdma_desc *srcrd = tx->tx_rd;
        struct ib_rdma_wr *wrq = NULL;
        struct ib_sge     *sge;
        int                rc  = resid;
@@ -1250,13 +1253,13 @@ kiblnd_init_rdma(kib_conn_t *conn, kib_tx_t *tx, int type,
         ibmsg->ibm_u.completion.ibcm_status = rc;
         ibmsg->ibm_u.completion.ibcm_cookie = dstcookie;
         kiblnd_init_tx_msg(conn->ibc_peer->ibp_ni, tx,
-                           type, sizeof (kib_completion_msg_t));
+                          type, sizeof(struct kib_completion_msg));
 
         return rc;
 }
 
 static void
-kiblnd_queue_tx_locked(kib_tx_t *tx, kib_conn_t *conn)
+kiblnd_queue_tx_locked(struct kib_tx *tx, struct kib_conn *conn)
 {
        struct list_head *q;
        s64 timeout_ns;
@@ -1311,7 +1314,7 @@ kiblnd_queue_tx_locked(kib_tx_t *tx, kib_conn_t *conn)
 }
 
 static void
-kiblnd_queue_tx (kib_tx_t *tx, kib_conn_t *conn)
+kiblnd_queue_tx(struct kib_tx *tx, struct kib_conn *conn)
 {
        spin_lock(&conn->ibc_lock);
        kiblnd_queue_tx_locked(tx, conn);
@@ -1357,14 +1360,14 @@ static int kiblnd_resolve_addr(struct rdma_cm_id *cmid,
 }
 
 static void
-kiblnd_connect_peer (kib_peer_ni_t *peer_ni)
+kiblnd_connect_peer(struct kib_peer_ni *peer_ni)
 {
         struct rdma_cm_id *cmid;
-        kib_dev_t         *dev;
-        kib_net_t         *net = peer_ni->ibp_ni->ni_data;
+       struct kib_dev *dev;
+       struct kib_net *net = peer_ni->ibp_ni->ni_data;
         struct sockaddr_in srcaddr;
         struct sockaddr_in dstaddr;
-        int                rc;
+       int rc;
 
         LASSERT (net != NULL);
         LASSERT (peer_ni->ibp_connecting > 0);
@@ -1419,7 +1422,7 @@ kiblnd_connect_peer (kib_peer_ni_t *peer_ni)
 }
 
 bool
-kiblnd_reconnect_peer(kib_peer_ni_t *peer_ni)
+kiblnd_reconnect_peer(struct kib_peer_ni *peer_ni)
 {
        rwlock_t         *glock = &kiblnd_data.kib_global_lock;
        char             *reason = NULL;
@@ -1470,12 +1473,12 @@ kiblnd_reconnect_peer(kib_peer_ni_t *peer_ni)
 }
 
 void
-kiblnd_launch_tx(struct lnet_ni *ni, kib_tx_t *tx, lnet_nid_t nid)
+kiblnd_launch_tx(struct lnet_ni *ni, struct kib_tx *tx, lnet_nid_t nid)
 {
-        kib_peer_ni_t        *peer_ni;
-        kib_peer_ni_t        *peer2;
-        kib_conn_t        *conn;
-       rwlock_t        *g_lock = &kiblnd_data.kib_global_lock;
+       struct kib_peer_ni *peer_ni;
+       struct kib_peer_ni *peer2;
+       struct kib_conn *conn;
+       rwlock_t *g_lock = &kiblnd_data.kib_global_lock;
         unsigned long      flags;
         int                rc;
        int                i;
@@ -1577,7 +1580,7 @@ kiblnd_launch_tx(struct lnet_ni *ni, kib_tx_t *tx, lnet_nid_t nid)
        peer_ni->ibp_connecting = tunables->lnd_conns_per_peer;
 
        /* always called with a ref on ni, which prevents ni being shutdown */
-       LASSERT(((kib_net_t *)ni->ni_data)->ibn_shutdown == 0);
+       LASSERT(((struct kib_net *)ni->ni_data)->ibn_shutdown == 0);
 
        if (tx != NULL)
                list_add_tail(&tx->tx_list, &peer_ni->ibp_tx_queue);
@@ -1605,9 +1608,9 @@ kiblnd_send(struct lnet_ni *ni, void *private, struct lnet_msg *lntmsg)
        lnet_kiov_t      *payload_kiov = lntmsg->msg_kiov;
        unsigned int      payload_offset = lntmsg->msg_offset;
        unsigned int      payload_nob = lntmsg->msg_len;
-       kib_msg_t        *ibmsg;
-       kib_rdma_desc_t  *rd;
-       kib_tx_t         *tx;
+       struct kib_msg *ibmsg;
+       struct kib_rdma_desc *rd;
+       struct kib_tx *tx;
        int               nob;
        int               rc;
 
@@ -1638,7 +1641,7 @@ kiblnd_send(struct lnet_ni *ni, void *private, struct lnet_msg *lntmsg)
                         break;                  /* send IMMEDIATE */
 
                 /* is the REPLY message too small for RDMA? */
-                nob = offsetof(kib_msg_t, ibm_u.immediate.ibim_payload[lntmsg->msg_md->md_length]);
+               nob = offsetof(struct kib_msg, ibm_u.immediate.ibim_payload[lntmsg->msg_md->md_length]);
                 if (nob <= IBLND_MSG_SIZE)
                         break;                  /* send IMMEDIATE */
 
@@ -1668,7 +1671,7 @@ kiblnd_send(struct lnet_ni *ni, void *private, struct lnet_msg *lntmsg)
                        return -EIO;
                }
 
-               nob = offsetof(kib_get_msg_t, ibgm_rd.rd_frags[rd->rd_nfrags]);
+               nob = offsetof(struct kib_get_msg, ibgm_rd.rd_frags[rd->rd_nfrags]);
                ibmsg->ibm_u.get.ibgm_cookie = tx->tx_cookie;
                ibmsg->ibm_u.get.ibgm_hdr = *hdr;
 
@@ -1690,7 +1693,7 @@ kiblnd_send(struct lnet_ni *ni, void *private, struct lnet_msg *lntmsg)
         case LNET_MSG_REPLY:
         case LNET_MSG_PUT:
                 /* Is the payload small enough not to need RDMA? */
-                nob = offsetof(kib_msg_t, ibm_u.immediate.ibim_payload[payload_nob]);
+               nob = offsetof(struct kib_msg, ibm_u.immediate.ibim_payload[payload_nob]);
                 if (nob <= IBLND_MSG_SIZE)
                         break;                  /* send IMMEDIATE */
 
@@ -1720,7 +1723,8 @@ kiblnd_send(struct lnet_ni *ni, void *private, struct lnet_msg *lntmsg)
                 ibmsg = tx->tx_msg;
                 ibmsg->ibm_u.putreq.ibprm_hdr = *hdr;
                 ibmsg->ibm_u.putreq.ibprm_cookie = tx->tx_cookie;
-                kiblnd_init_tx_msg(ni, tx, IBLND_MSG_PUT_REQ, sizeof(kib_putreq_msg_t));
+               kiblnd_init_tx_msg(ni, tx, IBLND_MSG_PUT_REQ,
+                                  sizeof(struct kib_putreq_msg));
 
                 tx->tx_lntmsg[0] = lntmsg;      /* finalise lntmsg on completion */
                 tx->tx_waiting = 1;             /* waiting for PUT_{ACK,NAK} */
@@ -1728,10 +1732,9 @@ kiblnd_send(struct lnet_ni *ni, void *private, struct lnet_msg *lntmsg)
                 return 0;
         }
 
-        /* send IMMEDIATE */
-
-        LASSERT (offsetof(kib_msg_t, ibm_u.immediate.ibim_payload[payload_nob])
-                 <= IBLND_MSG_SIZE);
+       /* send IMMEDIATE */
+       LASSERT(offsetof(struct kib_msg, ibm_u.immediate.ibim_payload[payload_nob])
+               <= IBLND_MSG_SIZE);
 
        tx = kiblnd_get_idle_tx(ni, target.nid);
         if (tx == NULL) {
@@ -1745,16 +1748,16 @@ kiblnd_send(struct lnet_ni *ni, void *private, struct lnet_msg *lntmsg)
 
         if (payload_kiov != NULL)
                 lnet_copy_kiov2flat(IBLND_MSG_SIZE, ibmsg,
-                                    offsetof(kib_msg_t, ibm_u.immediate.ibim_payload),
+                                   offsetof(struct kib_msg, ibm_u.immediate.ibim_payload),
                                     payload_niov, payload_kiov,
                                     payload_offset, payload_nob);
         else
                 lnet_copy_iov2flat(IBLND_MSG_SIZE, ibmsg,
-                                   offsetof(kib_msg_t, ibm_u.immediate.ibim_payload),
+                                  offsetof(struct kib_msg, ibm_u.immediate.ibim_payload),
                                    payload_niov, payload_iov,
                                    payload_offset, payload_nob);
 
-        nob = offsetof(kib_immediate_msg_t, ibim_payload[payload_nob]);
+       nob = offsetof(struct kib_immediate_msg, ibim_payload[payload_nob]);
         kiblnd_init_tx_msg(ni, tx, IBLND_MSG_IMMEDIATE, nob);
 
         tx->tx_lntmsg[0] = lntmsg;              /* finalise lntmsg on completion */
@@ -1763,7 +1766,7 @@ kiblnd_send(struct lnet_ni *ni, void *private, struct lnet_msg *lntmsg)
 }
 
 static void
-kiblnd_reply(struct lnet_ni *ni, kib_rx_t *rx, struct lnet_msg *lntmsg)
+kiblnd_reply(struct lnet_ni *ni, struct kib_rx *rx, struct lnet_msg *lntmsg)
 {
        struct lnet_process_id target = lntmsg->msg_target;
         unsigned int      niov = lntmsg->msg_niov;
@@ -1771,7 +1774,7 @@ kiblnd_reply(struct lnet_ni *ni, kib_rx_t *rx, struct lnet_msg *lntmsg)
         lnet_kiov_t      *kiov = lntmsg->msg_kiov;
         unsigned int      offset = lntmsg->msg_offset;
         unsigned int      nob = lntmsg->msg_len;
-        kib_tx_t         *tx;
+       struct kib_tx *tx;
         int               rc;
 
        tx = kiblnd_get_idle_tx(ni, rx->rx_conn->ibc_peer->ibp_nid);
@@ -1829,10 +1832,10 @@ kiblnd_recv(struct lnet_ni *ni, void *private, struct lnet_msg *lntmsg,
            int delayed, unsigned int niov, struct kvec *iov, lnet_kiov_t *kiov,
            unsigned int offset, unsigned int mlen, unsigned int rlen)
 {
-        kib_rx_t    *rx = private;
-        kib_msg_t   *rxmsg = rx->rx_msg;
-        kib_conn_t  *conn = rx->rx_conn;
-        kib_tx_t    *tx;
+       struct kib_rx *rx = private;
+       struct kib_msg *rxmsg = rx->rx_msg;
+       struct kib_conn *conn = rx->rx_conn;
+       struct kib_tx *tx;
        __u64        ibprm_cookie;
        int          nob;
        int          post_credit = IBLND_POSTRX_PEER_CREDIT;
@@ -1848,7 +1851,7 @@ kiblnd_recv(struct lnet_ni *ni, void *private, struct lnet_msg *lntmsg,
                LBUG();
 
         case IBLND_MSG_IMMEDIATE:
-                nob = offsetof(kib_msg_t, ibm_u.immediate.ibim_payload[rlen]);
+               nob = offsetof(struct kib_msg, ibm_u.immediate.ibim_payload[rlen]);
                 if (nob > rx->rx_nob) {
                         CERROR ("Immediate message from %s too big: %d(%d)\n",
                                 libcfs_nid2str(rxmsg->ibm_u.immediate.ibim_hdr.src_nid),
@@ -1860,19 +1863,19 @@ kiblnd_recv(struct lnet_ni *ni, void *private, struct lnet_msg *lntmsg,
                 if (kiov != NULL)
                         lnet_copy_flat2kiov(niov, kiov, offset,
                                             IBLND_MSG_SIZE, rxmsg,
-                                            offsetof(kib_msg_t, ibm_u.immediate.ibim_payload),
+                                           offsetof(struct kib_msg, ibm_u.immediate.ibim_payload),
                                             mlen);
                 else
                         lnet_copy_flat2iov(niov, iov, offset,
                                            IBLND_MSG_SIZE, rxmsg,
-                                           offsetof(kib_msg_t, ibm_u.immediate.ibim_payload),
+                                          offsetof(struct kib_msg, ibm_u.immediate.ibim_payload),
                                            mlen);
                lnet_finalize(lntmsg, 0);
                break;
 
        case IBLND_MSG_PUT_REQ: {
-               kib_msg_t       *txmsg;
-               kib_rdma_desc_t *rd;
+               struct kib_msg  *txmsg;
+               struct kib_rdma_desc *rd;
                ibprm_cookie = rxmsg->ibm_u.putreq.ibprm_cookie;
 
                if (mlen == 0) {
@@ -1909,7 +1912,7 @@ kiblnd_recv(struct lnet_ni *ni, void *private, struct lnet_msg *lntmsg,
                        break;
                }
 
-               nob = offsetof(kib_putack_msg_t, ibpam_rd.rd_frags[rd->rd_nfrags]);
+               nob = offsetof(struct kib_putack_msg, ibpam_rd.rd_frags[rd->rd_nfrags]);
                txmsg->ibm_u.putack.ibpam_src_cookie = ibprm_cookie;
                txmsg->ibm_u.putack.ibpam_dst_cookie = tx->tx_cookie;
 
@@ -1960,7 +1963,7 @@ kiblnd_thread_fini (void)
 }
 
 static void
-kiblnd_peer_alive (kib_peer_ni_t *peer_ni)
+kiblnd_peer_alive(struct kib_peer_ni *peer_ni)
 {
        /* This is racy, but everyone's only writing ktime_get_seconds() */
        peer_ni->ibp_last_alive = ktime_get_seconds();
@@ -1968,7 +1971,7 @@ kiblnd_peer_alive (kib_peer_ni_t *peer_ni)
 }
 
 static void
-kiblnd_peer_notify (kib_peer_ni_t *peer_ni)
+kiblnd_peer_notify(struct kib_peer_ni *peer_ni)
 {
         int           error = 0;
        time64_t last_alive = 0;
@@ -1991,7 +1994,7 @@ kiblnd_peer_notify (kib_peer_ni_t *peer_ni)
 }
 
 void
-kiblnd_close_conn_locked (kib_conn_t *conn, int error)
+kiblnd_close_conn_locked(struct kib_conn *conn, int error)
 {
         /* This just does the immediate housekeeping.  'error' is zero for a
          * normal shutdown which can happen only after the connection has been
@@ -1999,9 +2002,9 @@ kiblnd_close_conn_locked (kib_conn_t *conn, int error)
          * connection to be finished off by the connd.  Otherwise the connd is
          * already dealing with it (either to set it up or tear it down).
          * Caller holds kib_global_lock exclusively in irq context */
-        kib_peer_ni_t       *peer_ni = conn->ibc_peer;
-        kib_dev_t        *dev;
-        unsigned long     flags;
+       struct kib_peer_ni *peer_ni = conn->ibc_peer;
+       struct kib_dev *dev;
+       unsigned long flags;
 
         LASSERT (error != 0 || conn->ibc_state >= IBLND_CONN_ESTABLISHED);
 
@@ -2031,7 +2034,7 @@ kiblnd_close_conn_locked (kib_conn_t *conn, int error)
                       list_empty(&conn->ibc_active_txs) ? "" : "(waiting)");
        }
 
-       dev = ((kib_net_t *)peer_ni->ibp_ni->ni_data)->ibn_dev;
+       dev = ((struct kib_net *)peer_ni->ibp_ni->ni_data)->ibn_dev;
        if (peer_ni->ibp_next_conn == conn)
                /* clear next_conn so it won't be used */
                peer_ni->ibp_next_conn = NULL;
@@ -2064,7 +2067,7 @@ kiblnd_close_conn_locked (kib_conn_t *conn, int error)
 }
 
 void
-kiblnd_close_conn(kib_conn_t *conn, int error)
+kiblnd_close_conn(struct kib_conn *conn, int error)
 {
        unsigned long flags;
 
@@ -2076,10 +2079,10 @@ kiblnd_close_conn(kib_conn_t *conn, int error)
 }
 
 static void
-kiblnd_handle_early_rxs(kib_conn_t *conn)
+kiblnd_handle_early_rxs(struct kib_conn *conn)
 {
-       unsigned long    flags;
-       kib_rx_t        *rx;
+       unsigned long flags;
+       struct kib_rx *rx;
 
        LASSERT(!in_interrupt());
        LASSERT(conn->ibc_state >= IBLND_CONN_ESTABLISHED);
@@ -2087,7 +2090,7 @@ kiblnd_handle_early_rxs(kib_conn_t *conn)
        write_lock_irqsave(&kiblnd_data.kib_global_lock, flags);
        while (!list_empty(&conn->ibc_early_rxs)) {
                rx = list_entry(conn->ibc_early_rxs.next,
-                                   kib_rx_t, rx_list);
+                               struct kib_rx, rx_list);
                list_del(&rx->rx_list);
                write_unlock_irqrestore(&kiblnd_data.kib_global_lock, flags);
 
@@ -2099,17 +2102,17 @@ kiblnd_handle_early_rxs(kib_conn_t *conn)
 }
 
 static void
-kiblnd_abort_txs(kib_conn_t *conn, struct list_head *txs)
+kiblnd_abort_txs(struct kib_conn *conn, struct list_head *txs)
 {
        struct list_head         zombies = LIST_HEAD_INIT(zombies);
        struct list_head        *tmp;
        struct list_head        *nxt;
-       kib_tx_t                *tx;
+       struct kib_tx *tx;
 
        spin_lock(&conn->ibc_lock);
 
        list_for_each_safe(tmp, nxt, txs) {
-               tx = list_entry(tmp, kib_tx_t, tx_list);
+               tx = list_entry(tmp, struct kib_tx, tx_list);
 
                if (txs == &conn->ibc_active_txs) {
                        LASSERT(!tx->tx_queued);
@@ -2135,7 +2138,7 @@ kiblnd_abort_txs(kib_conn_t *conn, struct list_head *txs)
 }
 
 static void
-kiblnd_finalise_conn (kib_conn_t *conn)
+kiblnd_finalise_conn(struct kib_conn *conn)
 {
        LASSERT (!in_interrupt());
        LASSERT (conn->ibc_state > IBLND_CONN_INIT);
@@ -2160,7 +2163,8 @@ kiblnd_finalise_conn (kib_conn_t *conn)
 }
 
 static void
-kiblnd_peer_connect_failed(kib_peer_ni_t *peer_ni, int active, int error)
+kiblnd_peer_connect_failed(struct kib_peer_ni *peer_ni, int active,
+                          int error)
 {
        struct list_head zombies = LIST_HEAD_INIT(zombies);
        unsigned long   flags;
@@ -2213,10 +2217,10 @@ kiblnd_peer_connect_failed(kib_peer_ni_t *peer_ni, int active, int error)
 }
 
 static void
-kiblnd_connreq_done(kib_conn_t *conn, int status)
+kiblnd_connreq_done(struct kib_conn *conn, int status)
 {
-       kib_peer_ni_t    *peer_ni = conn->ibc_peer;
-       kib_tx_t         *tx;
+       struct kib_peer_ni *peer_ni = conn->ibc_peer;
+       struct kib_tx *tx;
        struct list_head txs;
        unsigned long    flags;
        int              active;
@@ -2304,7 +2308,7 @@ kiblnd_connreq_done(kib_conn_t *conn, int status)
         */
        spin_lock(&conn->ibc_lock);
        while (!list_empty(&txs)) {
-               tx = list_entry(txs.next, kib_tx_t, tx_list);
+               tx = list_entry(txs.next, struct kib_tx, tx_list);
                list_del(&tx->tx_list);
 
                kiblnd_queue_tx_locked(tx, conn);
@@ -2318,7 +2322,7 @@ kiblnd_connreq_done(kib_conn_t *conn, int status)
 }
 
 static void
-kiblnd_reject(struct rdma_cm_id *cmid, kib_rej_t *rej)
+kiblnd_reject(struct rdma_cm_id *cmid, struct kib_rej *rej)
 {
         int          rc;
 
@@ -2332,17 +2336,17 @@ static int
 kiblnd_passive_connect(struct rdma_cm_id *cmid, void *priv, int priv_nob)
 {
        rwlock_t                *g_lock = &kiblnd_data.kib_global_lock;
-        kib_msg_t             *reqmsg = priv;
-        kib_msg_t             *ackmsg;
-        kib_dev_t             *ibdev;
-        kib_peer_ni_t            *peer_ni;
-        kib_peer_ni_t            *peer2;
-        kib_conn_t            *conn;
-       struct lnet_ni             *ni  = NULL;
-        kib_net_t             *net = NULL;
+       struct kib_msg *reqmsg = priv;
+       struct kib_msg *ackmsg;
+       struct kib_dev *ibdev;
+       struct kib_peer_ni *peer_ni;
+       struct kib_peer_ni *peer2;
+       struct kib_conn *conn;
+       struct lnet_ni *ni = NULL;
+       struct kib_net *net = NULL;
         lnet_nid_t             nid;
         struct rdma_conn_param cp;
-        kib_rej_t              rej;
+       struct kib_rej rej;
        int                    version = IBLND_MSG_VERSION;
        unsigned long          flags;
        int                    rc;
@@ -2350,8 +2354,8 @@ kiblnd_passive_connect(struct rdma_cm_id *cmid, void *priv, int priv_nob)
        LASSERT (!in_interrupt());
 
        /* cmid inherits 'context' from the corresponding listener id */
-       ibdev = (kib_dev_t *)cmid->context;
-       LASSERT (ibdev != NULL);
+       ibdev = cmid->context;
+       LASSERT(ibdev);
 
         memset(&rej, 0, sizeof(rej));
         rej.ibr_magic                = IBLND_MSG_MAGIC;
@@ -2367,7 +2371,7 @@ kiblnd_passive_connect(struct rdma_cm_id *cmid, void *priv, int priv_nob)
                goto failed;
        }
 
-       if (priv_nob < offsetof(kib_msg_t, ibm_type)) {
+       if (priv_nob < offsetof(struct kib_msg, ibm_type)) {
                CERROR("Short connection request\n");
                goto failed;
        }
@@ -2400,7 +2404,7 @@ kiblnd_passive_connect(struct rdma_cm_id *cmid, void *priv, int priv_nob)
        ni  = lnet_nid2ni_addref(reqmsg->ibm_dstnid);
 
        if (ni != NULL) {
-               net = (kib_net_t *)ni->ni_data;
+               net = (struct kib_net *)ni->ni_data;
                rej.ibr_incarnation = net->ibn_incarnation;
        }
 
@@ -2653,11 +2657,11 @@ kiblnd_passive_connect(struct rdma_cm_id *cmid, void *priv, int priv_nob)
 }
 
 static void
-kiblnd_check_reconnect(kib_conn_t *conn, int version,
-                      __u64 incarnation, int why, kib_connparams_t *cp)
+kiblnd_check_reconnect(struct kib_conn *conn, int version,
+                      u64 incarnation, int why, struct kib_connparams *cp)
 {
        rwlock_t        *glock = &kiblnd_data.kib_global_lock;
-       kib_peer_ni_t   *peer_ni = conn->ibc_peer;
+       struct kib_peer_ni *peer_ni = conn->ibc_peer;
        char            *reason;
        int              msg_size = IBLND_MSG_SIZE;
        int              frag_num = -1;
@@ -2773,9 +2777,9 @@ kiblnd_check_reconnect(kib_conn_t *conn, int version,
 }
 
 static void
-kiblnd_rejected (kib_conn_t *conn, int reason, void *priv, int priv_nob)
+kiblnd_rejected(struct kib_conn *conn, int reason, void *priv, int priv_nob)
 {
-       kib_peer_ni_t    *peer_ni = conn->ibc_peer;
+       struct kib_peer_ni *peer_ni = conn->ibc_peer;
 
        LASSERT (!in_interrupt());
        LASSERT (conn->ibc_state == IBLND_CONN_ACTIVE_CONNECT);
@@ -2795,9 +2799,9 @@ kiblnd_rejected (kib_conn_t *conn, int reason, void *priv, int priv_nob)
                 break;
 
         case IB_CM_REJ_CONSUMER_DEFINED:
-                if (priv_nob >= offsetof(kib_rej_t, ibr_padding)) {
-                        kib_rej_t        *rej         = priv;
-                        kib_connparams_t *cp          = NULL;
+               if (priv_nob >= offsetof(struct kib_rej, ibr_padding)) {
+                       struct kib_rej *rej = priv;
+                       struct kib_connparams *cp = NULL;
                         int               flip        = 0;
                         __u64             incarnation = -1;
 
@@ -2820,7 +2824,7 @@ kiblnd_rejected (kib_conn_t *conn, int reason, void *priv, int priv_nob)
                                 flip = 1;
                         }
 
-                        if (priv_nob >= sizeof(kib_rej_t) &&
+                       if (priv_nob >= sizeof(struct kib_rej) &&
                             rej->ibr_version > IBLND_MSG_VERSION_1) {
                                 /* priv_nob is always 148 in current version
                                  * of OFED, so we still need to check version.
@@ -2900,12 +2904,12 @@ kiblnd_rejected (kib_conn_t *conn, int reason, void *priv, int priv_nob)
 }
 
 static void
-kiblnd_check_connreply (kib_conn_t *conn, void *priv, int priv_nob)
+kiblnd_check_connreply(struct kib_conn *conn, void *priv, int priv_nob)
 {
-        kib_peer_ni_t    *peer_ni = conn->ibc_peer;
-       struct lnet_ni *ni   = peer_ni->ibp_ni;
-        kib_net_t     *net  = ni->ni_data;
-        kib_msg_t     *msg  = priv;
+       struct kib_peer_ni *peer_ni = conn->ibc_peer;
+       struct lnet_ni *ni = peer_ni->ibp_ni;
+       struct kib_net *net = ni->ni_data;
+       struct kib_msg *msg = priv;
         int            ver  = conn->ibc_version;
         int            rc   = kiblnd_unpack_msg(msg, priv_nob);
         unsigned long  flags;
@@ -3001,12 +3005,12 @@ kiblnd_check_connreply (kib_conn_t *conn, void *priv, int priv_nob)
 }
 
 static int
-kiblnd_active_connect (struct rdma_cm_id *cmid)
+kiblnd_active_connect(struct rdma_cm_id *cmid)
 {
-        kib_peer_ni_t              *peer_ni = (kib_peer_ni_t *)cmid->context;
-        kib_conn_t              *conn;
-        kib_msg_t               *msg;
-        struct rdma_conn_param   cp;
+       struct kib_peer_ni *peer_ni = cmid->context;
+       struct kib_conn *conn;
+       struct kib_msg *msg;
+       struct rdma_conn_param cp;
         int                      version;
         __u64                    incarnation;
         unsigned long            flags;
@@ -3069,9 +3073,9 @@ kiblnd_active_connect (struct rdma_cm_id *cmid)
 int
 kiblnd_cm_callback(struct rdma_cm_id *cmid, struct rdma_cm_event *event)
 {
-        kib_peer_ni_t  *peer_ni;
-        kib_conn_t  *conn;
-       int          rc;
+       struct kib_peer_ni *peer_ni;
+       struct kib_conn *conn;
+       int rc;
 
        switch (event->event) {
        default:
@@ -3081,14 +3085,14 @@ kiblnd_cm_callback(struct rdma_cm_id *cmid, struct rdma_cm_event *event)
 
        case RDMA_CM_EVENT_CONNECT_REQUEST:
                 /* destroy cmid on failure */
-               rc = kiblnd_passive_connect(cmid, 
+               rc = kiblnd_passive_connect(cmid,
                                             (void *)KIBLND_CONN_PARAM(event),
                                             KIBLND_CONN_PARAM_LEN(event));
                 CDEBUG(D_NET, "connreq: %d\n", rc);
                 return rc;
-                
+
        case RDMA_CM_EVENT_ADDR_ERROR:
-                peer_ni = (kib_peer_ni_t *)cmid->context;
+               peer_ni = cmid->context;
                 CNETERR("%s: ADDR ERROR %d\n",
                        libcfs_nid2str(peer_ni->ibp_nid), event->status);
                 kiblnd_peer_connect_failed(peer_ni, 1, -EHOSTUNREACH);
@@ -3096,7 +3100,7 @@ kiblnd_cm_callback(struct rdma_cm_id *cmid, struct rdma_cm_event *event)
                 return -EHOSTUNREACH;      /* rc != 0 destroys cmid */
 
        case RDMA_CM_EVENT_ADDR_RESOLVED:
-                peer_ni = (kib_peer_ni_t *)cmid->context;
+               peer_ni = cmid->context;
 
                 CDEBUG(D_NET,"%s Addr resolved: %d\n",
                        libcfs_nid2str(peer_ni->ibp_nid), event->status);
@@ -3109,8 +3113,8 @@ kiblnd_cm_callback(struct rdma_cm_id *cmid, struct rdma_cm_event *event)
                         rc = rdma_resolve_route(
                                 cmid, *kiblnd_tunables.kib_timeout * 1000);
                        if (rc == 0) {
-                               kib_net_t *net = peer_ni->ibp_ni->ni_data;
-                               kib_dev_t *dev = net->ibn_dev;
+                               struct kib_net *net = peer_ni->ibp_ni->ni_data;
+                               struct kib_dev *dev = net->ibn_dev;
 
                                CDEBUG(D_NET, "%s: connection bound to "\
                                       "%s:%pI4h:%s\n",
@@ -3130,7 +3134,7 @@ kiblnd_cm_callback(struct rdma_cm_id *cmid, struct rdma_cm_event *event)
                 return rc;                      /* rc != 0 destroys cmid */
 
        case RDMA_CM_EVENT_ROUTE_ERROR:
-                peer_ni = (kib_peer_ni_t *)cmid->context;
+               peer_ni = cmid->context;
                 CNETERR("%s: ROUTE ERROR %d\n",
                         libcfs_nid2str(peer_ni->ibp_nid), event->status);
                 kiblnd_peer_connect_failed(peer_ni, 1, -EHOSTUNREACH);
@@ -3138,7 +3142,7 @@ kiblnd_cm_callback(struct rdma_cm_id *cmid, struct rdma_cm_event *event)
                 return -EHOSTUNREACH;           /* rc != 0 destroys cmid */
 
        case RDMA_CM_EVENT_ROUTE_RESOLVED:
-                peer_ni = (kib_peer_ni_t *)cmid->context;
+               peer_ni = cmid->context;
                 CDEBUG(D_NET,"%s Route resolved: %d\n",
                        libcfs_nid2str(peer_ni->ibp_nid), event->status);
 
@@ -3150,9 +3154,9 @@ kiblnd_cm_callback(struct rdma_cm_id *cmid, struct rdma_cm_event *event)
                 kiblnd_peer_connect_failed(peer_ni, 1, event->status);
                 kiblnd_peer_decref(peer_ni);
                 return event->status;           /* rc != 0 destroys cmid */
-                
+
        case RDMA_CM_EVENT_UNREACHABLE:
-                conn = (kib_conn_t *)cmid->context;
+               conn = cmid->context;
                 LASSERT(conn->ibc_state == IBLND_CONN_ACTIVE_CONNECT ||
                         conn->ibc_state == IBLND_CONN_PASSIVE_WAIT);
                 CNETERR("%s: UNREACHABLE %d\n",
@@ -3162,7 +3166,7 @@ kiblnd_cm_callback(struct rdma_cm_id *cmid, struct rdma_cm_event *event)
                 return 0;
 
        case RDMA_CM_EVENT_CONNECT_ERROR:
-                conn = (kib_conn_t *)cmid->context;
+               conn = cmid->context;
                 LASSERT(conn->ibc_state == IBLND_CONN_ACTIVE_CONNECT ||
                         conn->ibc_state == IBLND_CONN_PASSIVE_WAIT);
                 CNETERR("%s: CONNECT ERROR %d\n",
@@ -3172,7 +3176,7 @@ kiblnd_cm_callback(struct rdma_cm_id *cmid, struct rdma_cm_event *event)
                 return 0;
 
        case RDMA_CM_EVENT_REJECTED:
-                conn = (kib_conn_t *)cmid->context;
+               conn = cmid->context;
                 switch (conn->ibc_state) {
                 default:
                         LBUG();
@@ -3194,7 +3198,7 @@ kiblnd_cm_callback(struct rdma_cm_id *cmid, struct rdma_cm_event *event)
                 return 0;
 
        case RDMA_CM_EVENT_ESTABLISHED:
-                conn = (kib_conn_t *)cmid->context;
+               conn = cmid->context;
                 switch (conn->ibc_state) {
                 default:
                         LBUG();
@@ -3221,7 +3225,7 @@ kiblnd_cm_callback(struct rdma_cm_id *cmid, struct rdma_cm_event *event)
                 return 0;
 
        case RDMA_CM_EVENT_DISCONNECTED:
-                conn = (kib_conn_t *)cmid->context;
+               conn = cmid->context;
                 if (conn->ibc_state < IBLND_CONN_ESTABLISHED) {
                         CERROR("%s DISCONNECTED\n",
                                libcfs_nid2str(conn->ibc_peer->ibp_nid));
@@ -3248,13 +3252,13 @@ kiblnd_cm_callback(struct rdma_cm_id *cmid, struct rdma_cm_event *event)
 }
 
 static int
-kiblnd_check_txs_locked(kib_conn_t *conn, struct list_head *txs)
+kiblnd_check_txs_locked(struct kib_conn *conn, struct list_head *txs)
 {
-       kib_tx_t         *tx;
+       struct kib_tx *tx;
        struct list_head *ttmp;
 
        list_for_each(ttmp, txs) {
-               tx = list_entry(ttmp, kib_tx_t, tx_list);
+               tx = list_entry(ttmp, struct kib_tx, tx_list);
 
                if (txs != &conn->ibc_active_txs) {
                        LASSERT(tx->tx_queued);
@@ -3276,7 +3280,7 @@ kiblnd_check_txs_locked(kib_conn_t *conn, struct list_head *txs)
 }
 
 static int
-kiblnd_conn_timed_out_locked(kib_conn_t *conn)
+kiblnd_conn_timed_out_locked(struct kib_conn *conn)
 {
         return  kiblnd_check_txs_locked(conn, &conn->ibc_tx_queue) ||
                 kiblnd_check_txs_locked(conn, &conn->ibc_tx_noops) ||
@@ -3293,9 +3297,9 @@ kiblnd_check_conns (int idx)
        struct list_head  timedout_txs = LIST_HEAD_INIT(timedout_txs);
        struct list_head *peers = &kiblnd_data.kib_peers[idx];
        struct list_head *ptmp;
-       kib_peer_ni_t    *peer_ni;
-       kib_conn_t       *conn;
-       kib_tx_t         *tx, *tx_tmp;
+       struct kib_peer_ni *peer_ni;
+       struct kib_conn *conn;
+       struct kib_tx *tx, *tx_tmp;
        struct list_head *ctmp;
        unsigned long     flags;
 
@@ -3305,7 +3309,7 @@ kiblnd_check_conns (int idx)
        write_lock_irqsave(&kiblnd_data.kib_global_lock, flags);
 
        list_for_each(ptmp, peers) {
-               peer_ni = list_entry(ptmp, kib_peer_ni_t, ibp_list);
+               peer_ni = list_entry(ptmp, struct kib_peer_ni, ibp_list);
 
                /* Check tx_deadline */
                list_for_each_entry_safe(tx, tx_tmp, &peer_ni->ibp_tx_queue, tx_list) {
@@ -3322,7 +3326,7 @@ kiblnd_check_conns (int idx)
                        int timedout;
                        int sendnoop;
 
-                       conn = list_entry(ctmp, kib_conn_t, ibc_list);
+                       conn = list_entry(ctmp, struct kib_conn, ibc_list);
 
                        LASSERT(conn->ibc_state == IBLND_CONN_ESTABLISHED);
 
@@ -3364,7 +3368,7 @@ kiblnd_check_conns (int idx)
         * has ceased once the QP has been modified. */
        while (!list_empty(&closes)) {
                conn = list_entry(closes.next,
-                                 kib_conn_t, ibc_connd_list);
+                                 struct kib_conn, ibc_connd_list);
                list_del(&conn->ibc_connd_list);
                kiblnd_close_conn(conn, -ETIMEDOUT);
                kiblnd_conn_decref(conn);
@@ -3375,7 +3379,7 @@ kiblnd_check_conns (int idx)
         * free to do it last time... */
        while (!list_empty(&checksends)) {
                conn = list_entry(checksends.next,
-                                 kib_conn_t, ibc_connd_list);
+                                 struct kib_conn, ibc_connd_list);
                list_del(&conn->ibc_connd_list);
 
                spin_lock(&conn->ibc_lock);
@@ -3387,7 +3391,7 @@ kiblnd_check_conns (int idx)
 }
 
 static void
-kiblnd_disconnect_conn (kib_conn_t *conn)
+kiblnd_disconnect_conn(struct kib_conn *conn)
 {
        LASSERT (!in_interrupt());
        LASSERT (current == kiblnd_data.kib_connd);
@@ -3416,7 +3420,7 @@ kiblnd_connd (void *arg)
        spinlock_t        *lock= &kiblnd_data.kib_connd_lock;
        wait_queue_entry_t wait;
        unsigned long      flags;
-       kib_conn_t        *conn;
+       struct kib_conn *conn;
        int                timeout;
        int                i;
        int                dropped_lock;
@@ -3436,10 +3440,10 @@ kiblnd_connd (void *arg)
                 dropped_lock = 0;
 
                if (!list_empty(&kiblnd_data.kib_connd_zombies)) {
-                       kib_peer_ni_t *peer_ni = NULL;
+                       struct kib_peer_ni *peer_ni = NULL;
 
                        conn = list_entry(kiblnd_data.kib_connd_zombies.next,
-                                         kib_conn_t, ibc_list);
+                                         struct kib_conn, ibc_list);
                        list_del(&conn->ibc_list);
                        if (conn->ibc_reconnect) {
                                peer_ni = conn->ibc_peer;
@@ -3468,7 +3472,7 @@ kiblnd_connd (void *arg)
 
                if (!list_empty(&kiblnd_data.kib_connd_conns)) {
                        conn = list_entry(kiblnd_data.kib_connd_conns.next,
-                                             kib_conn_t, ibc_list);
+                                         struct kib_conn, ibc_list);
                        list_del(&conn->ibc_list);
 
                        spin_unlock_irqrestore(lock, flags);
@@ -3492,7 +3496,7 @@ kiblnd_connd (void *arg)
                                break;
 
                        conn = list_entry(kiblnd_data.kib_reconn_list.next,
-                                         kib_conn_t, ibc_list);
+                                         struct kib_conn, ibc_list);
                        list_del(&conn->ibc_list);
 
                        spin_unlock_irqrestore(lock, flags);
@@ -3563,7 +3567,7 @@ kiblnd_connd (void *arg)
 void
 kiblnd_qp_event(struct ib_event *event, void *arg)
 {
-        kib_conn_t *conn = arg;
+       struct kib_conn *conn = arg;
 
         switch (event->event) {
         case IB_EVENT_COMM_EST:
@@ -3625,9 +3629,9 @@ kiblnd_cq_completion(struct ib_cq *cq, void *arg)
         * consuming my CQ I could be called after all completions have
         * occurred.  But in this case, ibc_nrx == 0 && ibc_nsends_posted == 0
         * and this CQ is about to be destroyed so I NOOP. */
-       kib_conn_t              *conn = (kib_conn_t *)arg;
-       struct kib_sched_info   *sched = conn->ibc_sched;
-       unsigned long           flags;
+       struct kib_conn *conn = arg;
+       struct kib_sched_info *sched = conn->ibc_sched;
+       unsigned long flags;
 
        LASSERT(cq == conn->ibc_cq);
 
@@ -3652,7 +3656,7 @@ kiblnd_cq_completion(struct ib_cq *cq, void *arg)
 void
 kiblnd_cq_event(struct ib_event *event, void *arg)
 {
-        kib_conn_t *conn = arg;
+       struct kib_conn *conn = arg;
 
         CERROR("%s: async CQ event type %d\n",
                libcfs_nid2str(conn->ibc_peer->ibp_nid), event->event);
@@ -3663,7 +3667,7 @@ kiblnd_scheduler(void *arg)
 {
        long                    id = (long)arg;
        struct kib_sched_info   *sched;
-       kib_conn_t              *conn;
+       struct kib_conn *conn;
        wait_queue_entry_t      wait;
        unsigned long           flags;
        struct ib_wc            wc;
@@ -3701,7 +3705,7 @@ kiblnd_scheduler(void *arg)
 
                if (!list_empty(&sched->ibs_conns)) {
                        conn = list_entry(sched->ibs_conns.next,
-                                             kib_conn_t, ibc_sched_list);
+                                         struct kib_conn, ibc_sched_list);
                        /* take over kib_sched_conns' ref on conn... */
                        LASSERT(conn->ibc_scheduled);
                        list_del(&conn->ibc_sched_list);
@@ -3805,7 +3809,7 @@ int
 kiblnd_failover_thread(void *arg)
 {
        rwlock_t        *glock = &kiblnd_data.kib_global_lock;
-       kib_dev_t       *dev;
+       struct kib_dev *dev;
        wait_queue_entry_t wait;
        unsigned long    flags;
        int              rc;