发行说明

发布 0.3.4

发布0.3.4
日期2015年9月15日

新功能

  • 增加了对 Python 2.7 和 Python 3.4 上 Spark 1.4 的支持 (#294)

实验性功能

警告

实验性功能可能会发生变化。

  • 增加了在 SQL 后端中指定主键和外键关系的支持 (#274)。

新后端

改进的后端

  • CSV 文件的方言检测现在会采样文件的一个子集。这使得 S3(CSV) 能够为其方言获取正确的值 (#293)。
  • 将带有前缀的一组文件从 S3 存储桶加载到 Redshift 数据库现在可以正常工作了 (#293)。

API 变更

Bug 修复

  • 应对 Dask 和 bcolz 的 API 变更 (#270)。
  • 修复了一个 Bug,该 Bug 会导致将 numpy 数组转换为 DataFrame 时 dshape 中的列被忽略 (#273)。
  • 修复了从分块(chunks)追加到 SQL 表时未返回表的问题 (#278)。
  • 修复了一个 Bug,该 Bug 会导致 'pytables://' 未从 URI 中正确剥离 (#292)
  • 修复了一个 Bug,该 Bug 会导致 S3(CSV) 中不存在的标题行被移除,因为方言设置不正确 (#293)
  • 修复了一个 Bug,该 Bug 会导致如果未安装 paramiko,SparkSQL 后端就无法工作 (#300)
  • 修复了一个测试 Bug,该 Bug 会导致尾行被比较了,而它们不应该被比较 (#312)。
  • 修复了一个 Bug,该 Bug 会导致多字节编码嗅探可能会截断编码字符串的一部分 (#309, #311)。

其他

  • 添加了 copydoc() 函数,用于将文档字符串从一个对象复制到另一个对象。这有助于显式地将 __doc__ 属性设置为另一个函数或类的 __doc__ 的模式。此函数可用作装饰器,例如:@copydoc(FromThisClass) 或用作函数,例如:copydoc(FromThisClass, to_this_function)。 (#277)。

发布 0.3.3

发布0.3.3
日期2015年7月7日

新后端

改进的后端

  • 使用原生的数据库转储实现了 SQL 数据库到 CSV 的转换 (#174, #189, #191, #199)。
  • 改进了 CSV 标题行存在性推断 (#192)。
  • 非标准模式可以通过 schema 参数传递到 resource() 中 (#223)。

API 变更

  • unicode 字符串可以作为 URI 传递给 resource() (#212)。

Bug 修复

  • 修复了在 Python 3 和 Windows 中写入压缩 CSV 文件的问题 (#188, #190)。
  • Dask API 变更 (#226)。
  • 修复了一些在 binstar 上会失败的测试,因为它们没有被正确跳过 (#216)。
  • PyTables API 兼容性,当给定一个整数值的浮点数时 (#236)。
  • 当提取且未找到键时,默认为 None (#228)。
  • 修复了 JSON 发现时的 gzip 调度问题 (#243)。
  • ~odo.chunks.Chunks 包装的迭代器现在可以在不消耗第一个元素的情况下被发现。