飙血推荐
  • HTML教程
  • MySQL教程
  • JavaScript基础教程
  • php入门教程
  • JavaScript正则表达式运用
  • Excel函数教程
  • UEditor使用文档
  • AngularJS教程
  • ThinkPHP5.0教程

Python常用标准库(pickle序列化和JSON序列化)-

时间:2022-05-26  作者:msr20666  

常用的标准库

序列化模块

import pickle

序列化和反序列化

把不能直接存储的数据变得可存储,这个过程叫做序列化。把文件中的数据拿出来,回复称原来的数据类型,这个过程叫做反序列化。

在文件中存储的数据只能是字符串,或者是字节流,不能是其它的数据类型,但是如果想要将其存储就需要序列化。

Python中的序列化模块叫做 pickle,PHP等其它的一些语言将其称作serialize 或者unserialize,每个语言的序列化功能可以序列化它本身的一切数据类型。

使用场景

现在存在一段数据,现在并不需要他,但是说不定什么时候我就要用它,那么最好的方法就是将这段数据保存起来。

保存这段数据一般来说有那么几种方法(入库或者保存文件),但是这段数据很复杂,而保存在数据库中需要特定的数据格式,入库的话就非常的麻烦了,而且我不想破坏数据的原有格式,那么可以选择保存为文件。

如下所示:保存文件会遇到种种的麻烦问题。

# 这是我想要保存的一段数据
lst = [\'A\', \'B\', \'C\']

# 直接使用open函数不能将非字符串和非字节流的数据写入文件
with open(\'域名\', \'w\', encoding=\'UTF-8\') as fp :
	域名e(lst)
# !!! TypeError

# 将数据变成字符串就破坏了原有的数据结构(如果很复杂的数据结构几乎没有复原的可能性)
lst = str(lst)

# 将数据变成字节流:只能将字符串变成字节流数据!

现在就可以使用序列化功能,将数据序列化成为字节流的格式,然后存在文件当中,当需要的时候,再从文件中读取出来,然后反序列化成为数据原来的样子,而且保证原数据的数据结构没有变化。

而且可以序列化语言当中的任何数据类型,就是说不止是基本的数据类型,还有函数、类、对象……

dumps & loads

dumps将任意对象序列化成bytes数据,loads将序列化成为bytes的数据反序列成数据原本的格式。

注意:只能反序列化被序列化的数据

import pickle


# 这是我想要保存的一段数据
lst = [\'A\', \'B\', \'C\']


# dumps 把任意对象序列化成bytes
res = 域名s(lst)
print(res)  # b\'\x80\x03]q\x00(X\x01\x00\x00\x00Aq\x01X\x01\x00\x00\x00Bq\x02X\x01\x00\x00\x00Cq\x03e.\'
print(type(res))  # <class \'bytes\'>
# 序列化后的bytes数据可以写入文件中。


# loads 把任意bytes反序列化成为原来的数据
lst = 域名s(res)
print(lst)  # [\'A\', \'B\', \'C\']
print(type(lst))  # <class \'list\'>


# 尝试反序列化其它的bytes数据
char = \'你好\'
by_char = 域名de()
new_char = 域名s(by_char)  # 域名cklingError: invalid load key, \'\xe4\'.
dump & load

含义和上述的相同,只是这个可以直接操作IO对象,省时省力。

import pickle


# 这是我想要保存的一段数据
lst = [\'A\', \'B\', \'C\']


# dumps 和 loads 配合文件操作
# 序列化后写入文件
with open(\'域名\', \'wb\') as fp:
    data = 域名s(lst)
    域名e(data)
# 读取文件反序列化
with open(\'域名\', \'rb\') as fp:
    data = 域名()
    lst = 域名s(data)


# dump 和 load 配合文件操作
# 序列化写入文件
with open(\'域名\', \'wb\') as fp:
    域名(lst, fp)
# 读取文件反序列化
with open(\'域名\', \'rb\') as fp:
    lst = 域名(fp)

JSON序列化模块

import json

使用场景

序列化后的数据,如果想在多种语言中都可以流通怎么办?每种语言都有自己的语言特性,有些语言中的数据是特有的,那么序列化后的数据该怎么流通呢?

每种语言虽然各有自己的特点,但是几乎所以的语言都是师出同门,天下语言无不出C者。所以将每种语言共同存在的数据格式按照统一的标准去序列化就可以了,JSON诞生了。

json一般存储为json文件。

支持的数据类型

python中支持JSON序列化的数据一共有八种类型:

int、float、bool、str、list、tuple、dict、None

JSON序列化支持这几种数据类型是因为JSON中就只支持这几种数据类型:

如下为python中的数据类型对应json中的数据类型;

python数据类型 JSON数据类型
int int
float float
bool(True,False) bool(true,false)
None null
str str(必须双引号)
list([])、tuple(()) Array([])
dict({}) Object({})(键必须是双引号)

注意:

  1. JSON中没有元组类型,所以会变成列表;
  2. JSON中的对象必须使用字符串作为键,所以python中的字典数据中的非字符串键,会变成对应的JSON数据然后强转成为字符串;
import json

dict_var = {1: 1, 2.2: 2.2, False: True, \'123\': \'123\', "234": "234", None: None}

json_obj = 域名s(dict_var)
dict_var = 域名s(json_obj)

print(dict_var)
# {\'1\': 1, \'2.2\': 2.2, \'false\': True, \'123\': \'123\', \'234\': \'234\', \'null\': None}
JSON和pickle的区别

JSON可以序列化python八种数据,序列化为字符串

pickle可以序列化python所有的数据类型,序列化为字节流

序列化函数

JSON序列化函数和pickle的一样,名称和使用方法基本一样:

方法 含义
dumps 序列化
loads 反序列化
dump 序列化写入文件
load 读取文件反序列化

这里注意一下序列化方法的几个常用参数:

ensure_asscii 默认为True, 以ACSII格式编码,以Unicode显示;

sort_keys 默认为True, 对字典的键进行排序;

indent默认为None, json格式化默认是一行不加缩进的,如果indent是一个正整数,就以该缩进级别进行换行,增强可视化。

import json

# 开启排序
dict_var = {\'B\': \'2\', \'A\': \'1\'}
print(dict_var)  # {\'B\': \'2\', \'A\': \'1\'}
json_char = 域名s(dict_var, ensure_ascii=False, sort_keys=True)
dict_var = 域名s(json_char)
print(dict_var)  # {\'A\': \'1\', \'B\': \'2\'}

# 关闭排序
dict_var = {\'B\': \'2\', \'A\': \'1\'}
print(dict_var)  # {\'B\': \'2\', \'A\': \'1\'}
json_char = 域名s(dict_var, ensure_ascii=False, sort_keys=False)
dict_var = 域名s(json_char)
print(dict_var)  # {\'B\': \'2\', \'A\': \'1\'}

# dump 也一样哦
json和pickle实际使用过程中的一些问题

在对文件进行操作的时候:

  • json可以连续dump,但是不能连续load
  • pickle可以连续dump和load

如下解释:

# json 可以连续dump,但是不能连续load
import json

# 序列化数据
lst1 = [1, 2, 3]
lst2 = [4, 5, 6]
lst3 = [7, 8, 9]

# 序列化写入文件
with open(\'域名\', \'w\', encoding=\'UTF-8\') as fp:
    域名(lst1, fp)
    域名(lst2, fp)
    域名(lst3, fp)

# 读取文件反序列化
with open(\'域名\', \'r\', encoding=\'UTF-8\') as fp:
    data1 = 域名(fp)  # ERROR
    data2 = 域名(fp)
    data3 = 域名(fp)

# !!! 域名DecodeError: Extra data: line 1 column 10 (char 9)

因为 域名 方法序列化写入文件的时候,写入了两个及以上的数据,之后 域名 方法在读的时候又是一次性将整个文件中的数据读取出来,这个时候,反序列化的数据成了 [1, 2, 3][4, 5, 6][7, 8, 9] ,这明显不是一个json支持的数据格式,所以 域名 失败了。

再来看pickle是怎么样的:

# pickle 可以连续dump,也可以连续load
import pickle

# 序列化数据
lst1 = [1, 2, 3]
lst2 = [4, 5, 6]
lst3 = [7, 8, 9]

# 序列化写入文件
with open(\'域名\', \'wb\') as fp:
    域名(lst1, fp)
    域名(lst2, fp)
    域名(lst3, fp)

# 读取文件反序列化
with open(\'域名\', \'rb\') as fp:
    data1 = 域名(fp)  # [1, 2, 3]
    print(data1)
    data2 = 域名(fp)  # [4, 5, 6]
    print(data2)
    data3 = 域名(fp)  # [7, 8, 9]
    print(data3)

# 尝试先逐行读取,再反序列化
with open(\'域名\', \'rb\') as fp:
    datum = 域名lines()
    print(len(datum))  # 1
    
    for data in datum:
        data = 域名s(data)
        print(data)  # [1, 2, 3]   # 只能读出一个

可以看到 域名 将数据都读出来了,这是因为 域名 在写入数据的时候在每条数据后都加上了一个标记(有些人解释说是换行,但是文件中并没有换行,逐行使用 域名lines 逐行读取的时候也只能获取一条,但是在文件中所有的数据都是在同一行的,我也不太懂了(无奈)),然后 域名 每次就只会读一条数据,从IO指针读到每条数据后的那个标记为止,所以,pickle 可以连续的 load

怎么解决json的这个问题?

其实上面的这个问题,我个人认为是一种不规范的操作。因为 域名 会一次性的读取整个文件中的内容,你却在一个文件中写入了不止一条的数据,那么在反序列化的时候当然会报错了。所以我认为:

json的主要作用多语言之前的数据传递和数据存储,每个JSON文件中最好只储存一条完整的数据。

但是我就想在一个json文件中存多个数据呢?

其实思路很简单,关键就是读取文件然后反序列化的时候,必须是一条数据、一条数据的反序列化,类似如下:

import json

# 序列化数据
lst1 = [1, 2, 3]
lst2 = [4, 5, 6]
lst3 = [7, 8, 9]

# 序列化写入文件,每写入一条数据插一个换行
with open(\'域名\', \'w\', encoding=\'UTF-8\') as fp:
    域名(lst1, fp)
    域名e(\'\n\')
    域名(lst2, fp)
    域名e(\'\n\')
    域名(lst3, fp)

# 读取文件反序列化(逐行读取数据,然后反序列化)
with open(\'域名\', \'r\', encoding=\'UTF-8\') as fp:
    datum = 域名lines()
    print(len(datum))  # 3

    for data in datum:
        data = 域名s(data)
        print(data)  # [1, 2, 3]
                     # [4, 5, 6]
                     # [7, 8, 9]

pickle和json的区别总结

  1. json序列化后的数据为字符串,pickle序列化后的数据为字节流;
  2. json支持八种数据类型(int、float、bool、str、list、tuple、dict、None),pickle支持python的一切数据类型;
  3. json一般用于多语言间的数据交流,pickle一般用于python之间数据交流;

标签:编程
湘ICP备14001474号-3  投诉建议:234161800@qq.com   部分内容来源于网络,如有侵权,请联系删除。