mirror of
https://github.com/ntex-rs/ntex.git
synced 2025-04-04 13:27:39 +03:00
Tests cleanups
This commit is contained in:
parent
f3c7c6d365
commit
6b35f10c2f
12 changed files with 100 additions and 58 deletions
|
@ -3654,12 +3654,6 @@ impl PartialEq<BytesMut> for [u8] {
|
|||
}
|
||||
}
|
||||
|
||||
impl PartialOrd<BytesMut> for [u8] {
|
||||
fn partial_cmp(&self, other: &BytesMut) -> Option<cmp::Ordering> {
|
||||
other.partial_cmp(self)
|
||||
}
|
||||
}
|
||||
|
||||
impl PartialEq<str> for BytesMut {
|
||||
fn eq(&self, other: &str) -> bool {
|
||||
&**self == other.as_bytes()
|
||||
|
@ -3897,12 +3891,6 @@ impl PartialEq<[u8]> for BytesVec {
|
|||
}
|
||||
}
|
||||
|
||||
impl PartialOrd<[u8]> for BytesVec {
|
||||
fn partial_cmp(&self, other: &[u8]) -> Option<cmp::Ordering> {
|
||||
(**self).partial_cmp(other)
|
||||
}
|
||||
}
|
||||
|
||||
impl PartialEq<BytesVec> for [u8] {
|
||||
fn eq(&self, other: &BytesVec) -> bool {
|
||||
*other == *self
|
||||
|
|
|
@ -457,6 +457,10 @@ fn fns_defined_for_bytes() {
|
|||
assert_eq!(bytes, &"hello world"[..]);
|
||||
assert_eq!(bytes, BytesVec::copy_from_slice(b"hello world"));
|
||||
assert_eq!(bytes, BytesMut::copy_from_slice(b"hello world"));
|
||||
assert_eq!("hello world", bytes);
|
||||
assert_eq!("hello world".as_bytes().to_vec(), bytes);
|
||||
assert_eq!("hello world".to_string(), bytes);
|
||||
assert_eq!(&"hello world"[..], bytes);
|
||||
|
||||
// Iterator
|
||||
let v: Vec<u8> = (&bytes).iter().cloned().collect();
|
||||
|
@ -468,7 +472,7 @@ fn fns_defined_for_bytes() {
|
|||
let v: Vec<u8> = bytes.clone().into_iter().collect();
|
||||
assert_eq!(&v[..], bytes);
|
||||
|
||||
let v: Vec<u8> = bytes.as_ref().into_iter().cloned().collect();
|
||||
let v: Vec<u8> = (&bytes).into_iter().cloned().collect();
|
||||
assert_eq!(&v[..], bytes);
|
||||
|
||||
let b2: Bytes = v.iter().collect();
|
||||
|
@ -496,6 +500,10 @@ fn fns_defined_for_bytes_mut() {
|
|||
assert_eq!(bytes, &"hello world"[..]);
|
||||
assert_eq!(bytes, Bytes::copy_from_slice(b"hello world"));
|
||||
assert_eq!(bytes, BytesVec::copy_from_slice(b"hello world"));
|
||||
assert_eq!("hello world", bytes);
|
||||
assert_eq!("hello world".as_bytes().to_vec(), bytes);
|
||||
assert_eq!("hello world".to_string(), bytes);
|
||||
assert_eq!(&"hello world"[..], bytes);
|
||||
|
||||
// Iterator
|
||||
let v: Vec<u8> = (&bytes).iter().cloned().collect();
|
||||
|
@ -508,6 +516,10 @@ fn fns_defined_for_bytes_mut() {
|
|||
assert_eq!(&v[..], bytes);
|
||||
|
||||
let v: Vec<u8> = bytes.clone().into_iter().collect();
|
||||
assert_eq!(&v[..], bytes);
|
||||
|
||||
let v: Vec<u8> = (&bytes).into_iter().cloned().collect();
|
||||
assert_eq!(&v[..], bytes);
|
||||
|
||||
let mut bytes = BytesMut::copy_from_slice(b"hello world");
|
||||
assert_eq!(&v[..], bytes);
|
||||
|
@ -550,6 +562,10 @@ fn fns_defined_for_bytes_vec() {
|
|||
assert_eq!(bytes, &"hello world"[..]);
|
||||
assert_eq!(bytes, Bytes::copy_from_slice(b"hello world"));
|
||||
assert_eq!(bytes, BytesMut::copy_from_slice(b"hello world"));
|
||||
assert_eq!("hello world", bytes);
|
||||
assert_eq!("hello world".as_bytes().to_vec(), bytes);
|
||||
assert_eq!("hello world".to_string(), bytes);
|
||||
assert_eq!(&"hello world"[..], bytes);
|
||||
|
||||
// Iterator
|
||||
let v: Vec<u8> = (&bytes).iter().cloned().collect();
|
||||
|
@ -561,7 +577,7 @@ fn fns_defined_for_bytes_vec() {
|
|||
let v: Vec<u8> = bytes.iter().cloned().collect();
|
||||
assert_eq!(&v[..], bytes);
|
||||
|
||||
let v: Vec<u8> = bytes.as_ref().into_iter().cloned().collect();
|
||||
let v: Vec<u8> = (&bytes).into_iter().cloned().collect();
|
||||
assert_eq!(&v[..], bytes);
|
||||
|
||||
let v: Vec<u8> = bytes.into_iter().collect();
|
||||
|
@ -590,6 +606,10 @@ fn fns_defined_for_bytes_vec() {
|
|||
|
||||
let b = BytesMut::default();
|
||||
assert!(b.is_empty());
|
||||
|
||||
let mut bytes = BytesVec::copy_from_slice(b"hello world");
|
||||
unsafe { bytes.set_len(1) };
|
||||
assert_eq!(bytes, "h");
|
||||
}
|
||||
|
||||
#[test]
|
||||
|
|
Loading…
Add table
Add a link
Reference in a new issue