From cba52fa134fd3afe459d0d67105de95f4503b1fc Mon Sep 17 00:00:00 2001 From: Yiran Date: Wed, 4 Dec 2024 17:37:10 +0800 Subject: [PATCH] fix typos --- .../contributor-guide/frontend/distributed-querying.md | 2 +- .../current/contributor-guide/metasrv/overview.md | 2 +- .../current/contributor-guide/metasrv/selector.md | 2 +- .../current/enterprise/deployments/audit-logging.md | 2 +- .../current/enterprise/overview.md | 2 +- .../current/greptimecloud/getting-started/python.md | 2 +- .../current/greptimecloud/integrations/grafana.md | 2 +- .../current/greptimecloud/integrations/otlp.md | 2 +- .../migrate-to-greptimecloud/migrate-from-influxdb.md | 2 +- .../current/greptimecloud/usage-&-billing/dedicated.md | 2 +- .../greptimecloud/usage-&-billing/request-capacity-unit.md | 2 +- .../current/reference/sql/create.md | 2 +- .../current/reference/sql/data-types.md | 2 +- .../current/reference/sql/functions/geo.md | 6 +++--- .../current/reference/sql/functions/json.md | 2 +- .../current/reference/sql/information-schema/columns.md | 2 +- .../current/reference/sql/insert.md | 2 +- .../current/reference/sql/range.md | 2 +- .../current/reference/sql/show.md | 2 +- .../disaster-recovery/back-up-&-restore-data.md | 2 +- .../user-guide/administration/manage-data/compaction.md | 2 +- .../current/user-guide/administration/upgrade.md | 2 +- .../current/user-guide/concepts/data-model.md | 2 +- .../user-guide/concepts/features-that-you-concern.md | 4 ++-- .../current/user-guide/concepts/key-concepts.md | 2 +- .../current/user-guide/concepts/storage-location.md | 2 +- .../current/user-guide/concepts/why-greptimedb.md | 4 ++-- .../user-guide/continuous-aggregation/manage-flow.md | 2 +- .../user-guide/continuous-aggregation/usecase-example.md | 4 ++-- .../current/user-guide/deployments/configuration.md | 6 +++--- .../deployments/deploy-on-kubernetes/getting-started.md | 2 +- .../user-guide/ingest-data/for-iot/grpc-sdks/java.md | 2 +- .../current/user-guide/integrations/grafana.md | 2 +- .../current/user-guide/logs/manage-pipelines.md | 2 +- .../current/user-guide/logs/pipeline-config.md | 6 +++--- .../current/user-guide/logs/quick-start.md | 2 +- .../user-guide/migrate-to-greptimedb/migrate-from-mysql.md | 2 +- .../current/user-guide/query-data/sql.md | 2 +- .../current/user-guide/query-data/view.md | 2 +- 39 files changed, 48 insertions(+), 48 deletions(-) diff --git a/i18n/zh/docusaurus-plugin-content-docs/current/contributor-guide/frontend/distributed-querying.md b/i18n/zh/docusaurus-plugin-content-docs/current/contributor-guide/frontend/distributed-querying.md index 3a1d0085e..8a17eae72 100644 --- a/i18n/zh/docusaurus-plugin-content-docs/current/contributor-guide/frontend/distributed-querying.md +++ b/i18n/zh/docusaurus-plugin-content-docs/current/contributor-guide/frontend/distributed-querying.md @@ -8,7 +8,7 @@ description: 介绍 GreptimeDB 中的分布式查询方法,包括查询的拆 当查询到达 `frontend` 时,它首先被解析为 SQL 抽象语法树(AST)。我们遍历 AST,并从中生成逻辑计划。顾名思义,逻辑计划只是如何“逻辑地”执行查询的“提示”,它不能被直接运行,因此我们进一步从中生成可执行的物理计划。物理计划是一种类似树形的数据结构,每个节点实际上表示查询的执行方法。一旦我们从上到下运行物理计划树,结果数据将从叶子到根流动,被合并或计算。最终,我们在根节点的输出处得到了查询的结果。 -到目前为止,这只是一个典型的 “volcano” 查询执行模型,你可以在几乎每个 SQL 数据库中看到这种模型。那么“分布式”是在哪里发生的呢?这全部发生在一个名为 “TableScan��� 的物理计划节点中。TableScan 是物理计划树中的一个叶子节点,它负责扫描表的数据(就像它的名称所暗示的)。当 `frontend` 即将扫描表时,它首先需要根据每个 `region` 的数据范围将表扫描拆分为较小的扫描。 +到目前为止,这只是一个典型的 “volcano” 查询执行模型,你可以在几乎每个 SQL 数据库中看到这种模型。那么“分布式”是在哪里发生的呢?这全部发生在一个名为 “TableScan” 的物理计划节点中。TableScan 是物理计划树中的一个叶子节点,它负责扫描表的数据(就像它的名称所暗示的)。当 `frontend` 即将扫描表时,它首先需要根据每个 `region` 的数据范围将表扫描拆分为较小的扫描。 [1]: ./table-sharding.md diff --git a/i18n/zh/docusaurus-plugin-content-docs/current/contributor-guide/metasrv/overview.md b/i18n/zh/docusaurus-plugin-content-docs/current/contributor-guide/metasrv/overview.md index 223cd7fdd..bae3b2038 100644 --- a/i18n/zh/docusaurus-plugin-content-docs/current/contributor-guide/metasrv/overview.md +++ b/i18n/zh/docusaurus-plugin-content-docs/current/contributor-guide/metasrv/overview.md @@ -39,7 +39,7 @@ description: 介绍 Metasrv 的功能、架构和与前端的交互方式。 1. 前端发送 `CREATE TABLE` 请求到 Metasrv。 2. 根据请求中包含的分区规则规划 Region 数量。 3. 检查数据节点可用资源的全局视图(通过心跳收集)并为每个 Region 分配一个节点。 -4. 前端创建表并在���功创建后将 `Schema` 存储到 Metasrv。 +4. 前端创建表并在成功创建后将 `Schema` 存储到 Metasrv。 ### `Insert` diff --git a/i18n/zh/docusaurus-plugin-content-docs/current/contributor-guide/metasrv/selector.md b/i18n/zh/docusaurus-plugin-content-docs/current/contributor-guide/metasrv/selector.md index 0a1f00ec4..a11b9a8d0 100644 --- a/i18n/zh/docusaurus-plugin-content-docs/current/contributor-guide/metasrv/selector.md +++ b/i18n/zh/docusaurus-plugin-content-docs/current/contributor-guide/metasrv/selector.md @@ -10,7 +10,7 @@ description: 介绍 Metasrv 中的 Selector,包括其类型和配置方法。 [0]: https://github.com/GreptimeTeam/greptimedb/blob/main/src/meta-srv/src/selector.rs -在 `Metasrv` 中存在一个特定的场景。当 `Frontend` 向 `Metasrv` 发送建表请求时,`Metasrv` 会创建一个���由表(表的创建细节不在这里赘述)。在创建路由表时,`Metasrv` 需要选择适当的 `Datanode`s,这时候就需要用到 `Selector`。 +在 `Metasrv` 中存在一个特定的场景。当 `Frontend` 向 `Metasrv` 发送建表请求时,`Metasrv` 会创建一个路由表(表的创建细节不在这里赘述)。在创建路由表时,`Metasrv` 需要选择适当的 `Datanode`s,这时候就需要用到 `Selector`。 ## Selector 类型 diff --git a/i18n/zh/docusaurus-plugin-content-docs/current/enterprise/deployments/audit-logging.md b/i18n/zh/docusaurus-plugin-content-docs/current/enterprise/deployments/audit-logging.md index d79762654..bb2e24b81 100644 --- a/i18n/zh/docusaurus-plugin-content-docs/current/enterprise/deployments/audit-logging.md +++ b/i18n/zh/docusaurus-plugin-content-docs/current/enterprise/deployments/audit-logging.md @@ -69,7 +69,7 @@ commands = "all" # 所有可配置的对象类型是 "Database"、"Table"、"View"、"Flow"、"Index" 和 "Misc"。 # 一个特殊的 "all"(默认值)表示所有对象类型。 object_types = "all" -# 保留的审计日志文件的��大数量。默认为 30。 +# 保留的审计日志文件的最大数量。默认为 30。 # 审计日志每天生成一个新的。 max_log_files = 30 ``` diff --git a/i18n/zh/docusaurus-plugin-content-docs/current/enterprise/overview.md b/i18n/zh/docusaurus-plugin-content-docs/current/enterprise/overview.md index c7f9c8d1d..1043b4492 100644 --- a/i18n/zh/docusaurus-plugin-content-docs/current/enterprise/overview.md +++ b/i18n/zh/docusaurus-plugin-content-docs/current/enterprise/overview.md @@ -12,7 +12,7 @@ Enterprise 版还提供更多增强功能,帮助企业优化数据效率并显 - **将数据库部署在你的云中 - Bring Your Own Cloud(BYOC**: 利用你自己的云基础设施来托管 GreptimeDB,提供广泛的定制和灵活性以满足你的业务需求。此服务包括对你的云资源的全面管理和强大的安全措施,以保护你的基础设施。 - **全托管的独立云**: Greptime 团队提供完全托管的专用云环境,确保最佳性能、增强的安全性和卓越的可靠性,以满足你的企业需求。 -- **[边云一体解决方案](https://greptime.com/product/carcloud)**: 用于管理从边缘设备到云的时��数据,实现整个基础设施的实时分析和洞察的全面解决方案。 +- **[边云一体解决方案](https://greptime.com/product/carcloud)**: 用于管理从边缘设备到云的时序数据,实现整个基础设施的实时分析和洞察的全面解决方案。 - 针对物联网 (IoT)、可观测等行业的特定解决方案。 本章节概述了 GreptimeDB Enterprise 中可用的高级功能。有关获取试用或购买,请[联系我们](https://greptime.cn/contactus)。 diff --git a/i18n/zh/docusaurus-plugin-content-docs/current/greptimecloud/getting-started/python.md b/i18n/zh/docusaurus-plugin-content-docs/current/greptimecloud/getting-started/python.md index c2655a732..0af680034 100644 --- a/i18n/zh/docusaurus-plugin-content-docs/current/greptimecloud/getting-started/python.md +++ b/i18n/zh/docusaurus-plugin-content-docs/current/greptimecloud/getting-started/python.md @@ -12,7 +12,7 @@ import Includecreateservice from './create-service.md' ## 写入数据 在 Python 3.10+ 中使用下面的命令收集系统指标数据,例如 CPU 和内存使用情况,并将其发送到 GreptimeCloud。一旦成功发送,这些指标就可以在 GreptimeCloud 控制台中查看。 -该 Demo 基于 OTLP/http 采集并发���数据,源代码位于 [GitHub](https://github.com/GreptimeCloudStarters/quick-start-python). +该 Demo 基于 OTLP/http 采集并发送数据,源代码位于 [GitHub](https://github.com/GreptimeCloudStarters/quick-start-python). :::tip [pipx](https://pypa.github.io/pipx/) 是一个帮助你安装和运行用 Python 编写的应用程序的工具。 diff --git a/i18n/zh/docusaurus-plugin-content-docs/current/greptimecloud/integrations/grafana.md b/i18n/zh/docusaurus-plugin-content-docs/current/greptimecloud/integrations/grafana.md index 494abfe9a..6a526c8b4 100644 --- a/i18n/zh/docusaurus-plugin-content-docs/current/greptimecloud/integrations/grafana.md +++ b/i18n/zh/docusaurus-plugin-content-docs/current/greptimecloud/integrations/grafana.md @@ -23,7 +23,7 @@ https:// 接下来做如下配置: - Database Name:填写数据库名称 ``,留空则使用默认数据库 `public` -- 在 Auth 部分中单击 basic auth,并在 Basic Auth Details 中填写 GreptimeDB 的用户���和密码。未设置可留空: +- 在 Auth 部分中单击 basic auth,并在 Basic Auth Details 中填写 GreptimeDB 的用户名和密码。未设置可留空: - User: `` - Password: `` diff --git a/i18n/zh/docusaurus-plugin-content-docs/current/greptimecloud/integrations/otlp.md b/i18n/zh/docusaurus-plugin-content-docs/current/greptimecloud/integrations/otlp.md index 3c97b666b..bfa1d2dac 100644 --- a/i18n/zh/docusaurus-plugin-content-docs/current/greptimecloud/integrations/otlp.md +++ b/i18n/zh/docusaurus-plugin-content-docs/current/greptimecloud/integrations/otlp.md @@ -15,7 +15,7 @@ description: 介绍如何通过 OpenTelemetry Protocol (OTLP) 将指标数据发 * `X-Greptime-DB-Name`: `` * `Authorization`: `Basic` 认证,是 `:` 的 Base64 编码字符串。更多信息,请参阅 HTTP API 中的[认证](https://docs.greptime.cn/nightly/user-guide/protocols/http#鉴权)。 -由于请求���使用二进制 protobuf 编码的 payload,因此需要使用支持 `HTTP/protobuf` 的包。例如,在 Node.js 中,可以使用 [`exporter-trace-otlp-proto`](https://www.npmjs.com/package/@opentelemetry/exporter-trace-otlp-proto);在 Go 中,可以使用 [`go.opentelemetry.io/otel/exporters/otlp/otlptrace/otlptracehttp`](https://pkg.go.dev/go.opentelemetry.io/otel/exporters/otlp/otlptrace/otlptracehttp);在 Java 中,可以使用 [`io.opentelemetry:opentelemetry-exporter-otlp`](https://mvnrepository.com/artifact/io.opentelemetry/opentelemetry-exporter-otlp);在 Python 中,可以使用 [`opentelemetry-exporter-otlp-proto-http`](https://pypi.org/project/opentelemetry-exporter-otlp-proto-http/)。 +由于请求中使用二进制 protobuf 编码的 payload,因此需要使用支持 `HTTP/protobuf` 的包。例如,在 Node.js 中,可以使用 [`exporter-trace-otlp-proto`](https://www.npmjs.com/package/@opentelemetry/exporter-trace-otlp-proto);在 Go 中,可以使用 [`go.opentelemetry.io/otel/exporters/otlp/otlptrace/otlptracehttp`](https://pkg.go.dev/go.opentelemetry.io/otel/exporters/otlp/otlptrace/otlptracehttp);在 Java 中,可以使用 [`io.opentelemetry:opentelemetry-exporter-otlp`](https://mvnrepository.com/artifact/io.opentelemetry/opentelemetry-exporter-otlp);在 Python 中,可以使用 [`opentelemetry-exporter-otlp-proto-http`](https://pypi.org/project/opentelemetry-exporter-otlp-proto-http/)。 :::tip 注意 包名可能会被 OpenTelemetry 修改,因此建议你参考 OpenTelemetry 官方文档以获取最新信息。 diff --git a/i18n/zh/docusaurus-plugin-content-docs/current/greptimecloud/migrate-to-greptimecloud/migrate-from-influxdb.md b/i18n/zh/docusaurus-plugin-content-docs/current/greptimecloud/migrate-to-greptimecloud/migrate-from-influxdb.md index 3d29e664e..f54ae207f 100644 --- a/i18n/zh/docusaurus-plugin-content-docs/current/greptimecloud/migrate-to-greptimecloud/migrate-from-influxdb.md +++ b/i18n/zh/docusaurus-plugin-content-docs/current/greptimecloud/migrate-to-greptimecloud/migrate-from-influxdb.md @@ -206,7 +206,7 @@ $writeApi->write($point);
GreptimeCloud 控制台提供了名为 Workbench 的数据可视化工作台。 -��开[控制台](https://greptime.cloud), 在 `Manage Your Data` 下选择 `Web Dashboard`, +打开[控制台](https://greptime.cloud), 在 `Manage Your Data` 下选择 `Web Dashboard`, 然后创建一个新的 Workbench 文件, 即可按需求创建图表。 diff --git a/i18n/zh/docusaurus-plugin-content-docs/current/greptimecloud/usage-&-billing/dedicated.md b/i18n/zh/docusaurus-plugin-content-docs/current/greptimecloud/usage-&-billing/dedicated.md index dcd9be5f1..d9dd167aa 100644 --- a/i18n/zh/docusaurus-plugin-content-docs/current/greptimecloud/usage-&-billing/dedicated.md +++ b/i18n/zh/docusaurus-plugin-content-docs/current/greptimecloud/usage-&-billing/dedicated.md @@ -32,5 +32,5 @@ import Includesharedstoragecapacity from './shared-storage-capacity.md' ### 网络流量 -网络流量的费用将包含在你的月度账单���。 +网络流量的费用将包含在你的月度账单中。 流量价格由云服务器提供商(如 AWS)决定,Greptime 不会对流量收取额外费用。 diff --git a/i18n/zh/docusaurus-plugin-content-docs/current/greptimecloud/usage-&-billing/request-capacity-unit.md b/i18n/zh/docusaurus-plugin-content-docs/current/greptimecloud/usage-&-billing/request-capacity-unit.md index 503d67cfc..f076373ac 100644 --- a/i18n/zh/docusaurus-plugin-content-docs/current/greptimecloud/usage-&-billing/request-capacity-unit.md +++ b/i18n/zh/docusaurus-plugin-content-docs/current/greptimecloud/usage-&-billing/request-capacity-unit.md @@ -15,7 +15,7 @@ description: 详细介绍 GreptimeCloud 的请求容量单位算法,包括 WCU WCU 的容量可能会在未来发生变化。 ::: -每个请求的大小根���以下步骤计算: +每个请求的大小根据以下步骤计算: 1. 获取表结构中每个列的数据类型的大小。你可以在 [数据类型](/reference/sql/data-types.md) 文档中找到有关每个数据类型大小的详细信息。 2. 计算请求中所有列的大小之和。如果请求中不存在某列,则其大小取决于该列的默认值。如果默认值为 null,则大小为 0;否则,它是该列数据类型的大小。 diff --git a/i18n/zh/docusaurus-plugin-content-docs/current/reference/sql/create.md b/i18n/zh/docusaurus-plugin-content-docs/current/reference/sql/create.md index 518316551..9272eddb4 100644 --- a/i18n/zh/docusaurus-plugin-content-docs/current/reference/sql/create.md +++ b/i18n/zh/docusaurus-plugin-content-docs/current/reference/sql/create.md @@ -367,7 +367,7 @@ CREATE EXTERNAL TABLE [IF NOT EXISTS] [db.]table_name | `ENDPOINT` | The bucket endpoint | 可选 | | `ACCESS_KEY_ID` | 用于连接 AWS S3 兼容对象存储的访问密钥 ID | 可选 | | `SECRET_ACCESS_KEY` | 用于连接 AWS S3 兼容对象存储的秘密访问密钥 | 可选 | -| `ENABLE_VIRTUAL HOST_STYLE` | 如果你想要使用 virtual hosting 来定位 bucket,将其设置为 `true` | ���选 | +| `ENABLE_VIRTUAL HOST_STYLE` | 如果你想要使用 virtual hosting 来定位 bucket,将其设置为 `true` | 可选 | | `SESSION_TOKEN` | 用于连接 AWS S3 服务的临时凭证 | 可选 | ### 时间索引列 diff --git a/i18n/zh/docusaurus-plugin-content-docs/current/reference/sql/data-types.md b/i18n/zh/docusaurus-plugin-content-docs/current/reference/sql/data-types.md index 9e2229013..10df05f76 100644 --- a/i18n/zh/docusaurus-plugin-content-docs/current/reference/sql/data-types.md +++ b/i18n/zh/docusaurus-plugin-content-docs/current/reference/sql/data-types.md @@ -82,7 +82,7 @@ QUANTITY UNIT [QUANTITY UNIT...] ``` * `QUANTITY`:是一个数字(可能有符号), -* `UNIT`:时间单位,可以是 `microsecond`(微秒)、`millisecond`(毫秒)、`second`(秒)、`minute`(分钟)、`hour`(小时)、`day`(天)、`week`(周)、`month`(月)、`year`(年)、`decade`(十年)、`century`(世纪)或这些���位的缩写或复数形式; +* `UNIT`:时间单位,可以是 `microsecond`(微秒)、`millisecond`(毫秒)、`second`(秒)、`minute`(分钟)、`hour`(小时)、`day`(天)、`week`(周)、`month`(月)、`year`(年)、`decade`(十年)、`century`(世纪)或这些单位的缩写或复数形式; 不同的时间单位将会被计算合并,每个单位的符号决定它是增加还是减少总间隔。例如,“1 年 -2 个月”导致净间隔为 10 个月。 遗憾的是,GreptimeDB 暂时还不支持以 [ISO 8601 时间间隔](https://en.wikipedia.org/wiki/ISO_8601#Time_intervals)格式编写间隔,例如 `P3Y3M700DT133H17M36.789S` 等。但它支持以这种格式输出。 diff --git a/i18n/zh/docusaurus-plugin-content-docs/current/reference/sql/functions/geo.md b/i18n/zh/docusaurus-plugin-content-docs/current/reference/sql/functions/geo.md index 751fce193..f5ff87a7d 100644 --- a/i18n/zh/docusaurus-plugin-content-docs/current/reference/sql/functions/geo.md +++ b/i18n/zh/docusaurus-plugin-content-docs/current/reference/sql/functions/geo.md @@ -144,7 +144,7 @@ h3_cell_to_children_size(h3_latlng_to_cell(37.76938, -122.3889, 8), 10); ### `h3_cell_to_child_pos` -根据给定分辨率,返回单元在��父单元的位置。位置是单元在所有子单元中的索引。 +根据给定分辨率,返回单元在其父单元的位置。位置是单元在所有子单元中的索引。 ```sql h3_cell_to_child_pos(h3_latlng_to_cell(37.76938, -122.3889, 8), 6) @@ -194,7 +194,7 @@ h3_grid_disk(h3_latlng_to_cell(37.76938, -122.3889, 8), 3); 返回给定单元格范围内所有距离为 *k* 的单元格。 -请注意,此函数��回一个 UInt64 数组,并且仅适用于我们的 HTTP 查询 API 和 Postgres 通道。 +请注意,此函数返回一个 UInt64 数组,并且仅适用于我们的 HTTP 查询 API 和 Postgres 通道。 ```sql h3_grid_disk_distance(h3_latlng_to_cell(37.76938, -122.3889, 8), 3); @@ -325,7 +325,7 @@ SELECT json_encode_path(lat, lon, ts); ### `st_contains` -测��两个空间对象是否为包含关系。 +测试两个空间对象是否为包含关系。 参数:WKT 编码的地理对象。 diff --git a/i18n/zh/docusaurus-plugin-content-docs/current/reference/sql/functions/json.md b/i18n/zh/docusaurus-plugin-content-docs/current/reference/sql/functions/json.md index 4f89f6444..2eea60ce3 100644 --- a/i18n/zh/docusaurus-plugin-content-docs/current/reference/sql/functions/json.md +++ b/i18n/zh/docusaurus-plugin-content-docs/current/reference/sql/functions/json.md @@ -43,7 +43,7 @@ SELECT json_to_string(parse_json('{"a": 1, "b": 2}')); | `.` | 选择对象中匹配名称的元素 | `$.event` | | `:` | `.` 的别名 | `$:event` | | `[""]` | `.` 的别名 | `$["event"]` | -| `[*]` | 选择数组中的所有��素 | `$[*]` | +| `[*]` | 选择数组中的所有元素 | `$[*]` | | `[, ..]` | 选择数组中基于0的第 `n` 个元素 | `$[1, 2]` | | `[last - , ..]` | 选择数组中最后一个元素之前的第 `n` 个元素 | `$[0, last - 1]` | | `[ to , ..]` | 选择数组中某个范围内的所有元素 | `$[1 to last - 2]` | diff --git a/i18n/zh/docusaurus-plugin-content-docs/current/reference/sql/information-schema/columns.md b/i18n/zh/docusaurus-plugin-content-docs/current/reference/sql/information-schema/columns.md index 9fce7d278..50774bf37 100644 --- a/i18n/zh/docusaurus-plugin-content-docs/current/reference/sql/information-schema/columns.md +++ b/i18n/zh/docusaurus-plugin-content-docs/current/reference/sql/information-schema/columns.md @@ -133,7 +133,7 @@ character_maximum_length: NULL 3 rows in set (0.03 sec) ``` -`COLUMNS` 表中列的描述如��: +`COLUMNS` 表中列的描述如下: - `table_catalog`:列所属的目录的名称。在 OSS 项目中该值始终为 `greptime`。 - `table_schema`:包含列的表所属的数据库的名称。 diff --git a/i18n/zh/docusaurus-plugin-content-docs/current/reference/sql/insert.md b/i18n/zh/docusaurus-plugin-content-docs/current/reference/sql/insert.md index b2e93e69f..2c3996d25 100644 --- a/i18n/zh/docusaurus-plugin-content-docs/current/reference/sql/insert.md +++ b/i18n/zh/docusaurus-plugin-content-docs/current/reference/sql/insert.md @@ -19,7 +19,7 @@ VALUES (value1, value2, value3, ...); 在上述语法中,`table_name` 是要插入数据的表名,`column1`、`column2`、`column3` 等是表中的列名。 如果你想要插入数据到指定的列中,可以在 `INSERT INTO` 语句中指定列名。 -如果你不指定列名,数据将会插入到表中的所有列���。 +如果你不指定列名,数据将会插入到表中的所有列中。 `VALUES` 关键字后面跟着的是一个值列表,这个值列表的顺序必须和 `INSERT INTO` 语句中的列顺序一致。 diff --git a/i18n/zh/docusaurus-plugin-content-docs/current/reference/sql/range.md b/i18n/zh/docusaurus-plugin-content-docs/current/reference/sql/range.md index 45c823aa3..0ecccc745 100644 --- a/i18n/zh/docusaurus-plugin-content-docs/current/reference/sql/range.md +++ b/i18n/zh/docusaurus-plugin-content-docs/current/reference/sql/range.md @@ -221,7 +221,7 @@ ALIGN '5s'; `TO` 选项、`RANGE` 选项和 `ALIGN INTERVAL` 共同决定了范围查询的时间窗口。 请参考[时间范围窗口](/user-guide/query-data/sql.md#时间范围窗口)。 -`TO` 选项的默认值为当前查询客户端的时区。如果想要设置时区,请参考 [MySQL 客户端](/user-guide/protocols/mysql.md#时区) 或 [PostgreSQL 客户端](/user-guide/protocols/postgresql.md#时区)文档���的时区设置。其他可用的 `TO` 选项有: +`TO` 选项的默认值为当前查询客户端的时区。如果想要设置时区,请参考 [MySQL 客户端](/user-guide/protocols/mysql.md#时区) 或 [PostgreSQL 客户端](/user-guide/protocols/postgresql.md#时区)文档中的时区设置。其他可用的 `TO` 选项有: | TO | 描述 | | :---------: | :----------------------------------------------------------------: | diff --git a/i18n/zh/docusaurus-plugin-content-docs/current/reference/sql/show.md b/i18n/zh/docusaurus-plugin-content-docs/current/reference/sql/show.md index 4a5a5d94f..01289e5cf 100644 --- a/i18n/zh/docusaurus-plugin-content-docs/current/reference/sql/show.md +++ b/i18n/zh/docusaurus-plugin-content-docs/current/reference/sql/show.md @@ -170,7 +170,7 @@ SHOW FULL TABLES WHERE Table_type='BASE TABLE'; SHOW CREATE TABLE [table] ``` -例如��� +例如: ```sql SHOW CREATE TABLE system_metrics; diff --git a/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/administration/disaster-recovery/back-up-&-restore-data.md b/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/administration/disaster-recovery/back-up-&-restore-data.md index e64cb57b2..52de13d55 100644 --- a/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/administration/disaster-recovery/back-up-&-restore-data.md +++ b/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/administration/disaster-recovery/back-up-&-restore-data.md @@ -29,7 +29,7 @@ greptime cli export [OPTIONS] | --auth-basic | 否 | - | 使用 `:` 格式 | | --timeout | 否 | 0 | 对 DB 进行一次调用的超时时间,默认为 0 代表永不超时 (例如 `30s`, `10min 20s`) | -### ���出目标 +### 导出目标 - `schema`: 仅导出表结构(`SHOW CREATE TABLE`) - `data`: 仅导出表数据(`COPY DATABASE TO`) - `all`: 导出表结构和数据(默认) diff --git a/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/administration/manage-data/compaction.md b/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/administration/manage-data/compaction.md index ba42c3cbd..8786c9d03 100644 --- a/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/administration/manage-data/compaction.md +++ b/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/administration/manage-data/compaction.md @@ -136,7 +136,7 @@ ADMIN COMPACT_TABLE( 1 row in set (0.01 sec) ``` -执行此语句时,GreptimeDB 会将每个 SST 文件按 1 小时(3600 秒)的时间跨度拆分成多个分块,并将这些分块合并为一个输出文件,确保没有重叠���文件。 +执行此语句时,GreptimeDB 会将每个 SST 文件按 1 小时(3600 秒)的时间跨度拆分成多个分块,并将这些分块合并为一个输出文件,确保没有重叠的文件。 下图展示了一次 SWCS 压缩的过程: diff --git a/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/administration/upgrade.md b/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/administration/upgrade.md index 6ab0cbbe1..240c9408d 100644 --- a/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/administration/upgrade.md +++ b/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/administration/upgrade.md @@ -170,7 +170,7 @@ psql -h 127.0.0.1 -p 4003 -d public -f /tmp/greptimedb-export/greptime/public/co ## 推荐流程 -该部分给出了一个推��的整体流程,以便平滑升级 GreptimeDB。如果您的环境可以在升级过程中离线,可以跳过此部分。 +该部分给出了一个推荐的整体流程,以便平滑升级 GreptimeDB。如果您的环境可以在升级过程中离线,可以跳过此部分。 1. 创建一个全新的 v0.9.x 集群 2. 使用 v0.9.x 版本的 cli 工具导出并导入 `create-table` diff --git a/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/concepts/data-model.md b/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/concepts/data-model.md index 94817a012..c14ad1b07 100644 --- a/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/concepts/data-model.md +++ b/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/concepts/data-model.md @@ -79,6 +79,6 @@ GreptimeDB 基于表进行设计,原因如下: - Schema 是描述数据特征的元数据,对于用户来说更方便管理和维护。通过引入 Schema 版本的概念,我们可以更好地管理数据兼容性。 - Schema 通过其类型、长度等信息带来了巨大的优化存储和计算的好处,我们可以进行有针对性的优化。 - 当我们有了表格 Schema 后,自然而然地引入了 SQL,并用它来处理各种表之间的关联分析和聚合查询,为用户抵消了学习和使用成本。 -- 比起 OpenTSDB 和 Prometheus 采用的单值模型,GreptimeDB 使用多值模型使其中一行数据可以具有多列数据。多值模型面向数据源建模,一个 metric 可以有用 field 表示的值。多值模型的优势在于它可以一次性向数据库写入或读取多个值,从而减���传输流量并简化查询。相比之下,单值模型则需要将数据拆分成多个记录。阅读[博客](https://greptime.com/blogs/2024-05-09-prometheus)以获取更多详情。 +- 比起 OpenTSDB 和 Prometheus 采用的单值模型,GreptimeDB 使用多值模型使其中一行数据可以具有多列数据。多值模型面向数据源建模,一个 metric 可以有用 field 表示的值。多值模型的优势在于它可以一次性向数据库写入或读取多个值,从而减少传输流量并简化查询。相比之下,单值模型则需要将数据拆分成多个记录。阅读[博客](https://greptime.com/blogs/2024-05-09-prometheus)以获取更多详情。 GreptimeDB 使用 SQL 管理表 Schema。有关更多信息,请参见[表管理](/user-guide/administration/manage-data/basic-table-operations.md)。但是,我们对 Schema 的定义并不是强制性的,而是倾向于 **Schemaless** 的方式,类似于 MongoDB。有关更多详细信息,请参见[自动生成表结构](../ingest-data/overview.md#自动生成表结构)。 diff --git a/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/concepts/features-that-you-concern.md b/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/concepts/features-that-you-concern.md index 6de20a35a..90963bd52 100644 --- a/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/concepts/features-that-you-concern.md +++ b/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/concepts/features-that-you-concern.md @@ -16,7 +16,7 @@ description: 介绍 GreptimeDB 的关键特性,并解答用户关心的常见 ## GreptimeDB 支持删除数据吗? -支持,请参考[删���数据](/user-guide/ingest-data/overview.md#删除数据)获取更多信息。 +支持,请参考[删除数据](/user-guide/ingest-data/overview.md#删除数据)获取更多信息。 ## 我可以为不同的表或指标设置 TTL 或保留策略吗? @@ -51,7 +51,7 @@ GreptimeDB 还提供一个完全托管的云服务 [GreptimeCloud](https://grept ## GreptimeDB 对比其他存储或时序数据库的性能如何? -请阅读��下性能报告: +请阅读以下性能报告: * [GreptimeDB vs. InfluxDB](https://greptime.cn/blogs/2024-08-08-report) * [GreptimeDB vs. Grafana Mimir](https://greptime.cn/blogs/2024-08-01-grafana) diff --git a/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/concepts/key-concepts.md b/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/concepts/key-concepts.md index 345534ef1..35096fc3c 100644 --- a/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/concepts/key-concepts.md +++ b/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/concepts/key-concepts.md @@ -8,7 +8,7 @@ description: 介绍 GreptimeDB 的核心概念,包括数据库、时序表、 ## 数据库 -类似于关系型数据库中的 _数据库_,数据库是数据容器的最小单元,数据可以在���个单元中被管理和计算。 +类似于关系型数据库中的 _数据库_,数据库是数据容器的最小单元,数据可以在这个单元中被管理和计算。 你可以利用数据库来实现数据隔离,形成类似租户的效果。 ## Time-Series Table diff --git a/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/concepts/storage-location.md b/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/concepts/storage-location.md index c90143acf..e1b67675d 100644 --- a/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/concepts/storage-location.md +++ b/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/concepts/storage-location.md @@ -4,7 +4,7 @@ description: 介绍 GreptimeDB 支持的存储位置,包括本地文件系统 # 存储位置 -GreptimeDB 支持将数据存储在本地文件系统、AWS S3 及其兼容服务(包括 minio、digitalocean space、腾讯云对象存储(COS)、百度云对象存储(BOS)等)、Azure Blob Storage ��阿里云 OSS 中。 +GreptimeDB 支持将数据存储在本地文件系统、AWS S3 及其兼容服务(包括 minio、digitalocean space、腾讯云对象存储(COS)、百度云对象存储(BOS)等)、Azure Blob Storage 和阿里云 OSS 中。 ## 本地文件结构 diff --git a/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/concepts/why-greptimedb.md b/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/concepts/why-greptimedb.md index 719ba3be5..c0c2e7124 100644 --- a/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/concepts/why-greptimedb.md +++ b/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/concepts/why-greptimedb.md @@ -23,7 +23,7 @@ GreptimeDB 是一个云原生、分布式且开源的时序数据库,旨在处 ## 统一指标、日志和事件 -通过[时序表](./data-model)的模型设计、SQL 的原生支持,以及存算分离架构带来的混合负载���GreptimeDB 可以同时处理指标、日志和事件,增强不同时间序列数据之间的关联分析,并简化用户的架构、部署和 API。 +通过[时序表](./data-model)的模型设计、SQL 的原生支持,以及存算分离架构带来的混合负载,GreptimeDB 可以同时处理指标、日志和事件,增强不同时间序列数据之间的关联分析,并简化用户的架构、部署和 API。 阅读[SQL 示例](/user-guide/overview.md#sql-查询示例)以获取详细信息。 @@ -58,7 +58,7 @@ GreptimeDB 专为云而生,充分利用云的优势,如弹性、可扩展性 ![Time-Series Table](/time-series-table.png) -然而,在���们的设计中,对 Schema 的定义并非强制性的,而是更偏向于像 MongoDB 这样的数据库的 Schemaless 方式。当数据被写入时,表将被动态地自动创建,新的列(标签和字段)将也会自动被添加进表中。 +然而,在我们的设计中,对 Schema 的定义并非强制性的,而是更偏向于像 MongoDB 这样的数据库的 Schemaless 方式。当数据被写入时,表将被动态地自动创建,新的列(标签和字段)将也会自动被添加进表中。 ### PromQL、SQL 和 Python diff --git a/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/continuous-aggregation/manage-flow.md b/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/continuous-aggregation/manage-flow.md index edf28d825..9c6586499 100644 --- a/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/continuous-aggregation/manage-flow.md +++ b/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/continuous-aggregation/manage-flow.md @@ -14,7 +14,7 @@ description: 介绍如何在 GreptimeDB 中创建和删除 flow,包括创建 s 虽然它与常规的时间序列表相同,但有一些重要的注意事项: - **列的顺序和类型**:确保 sink 表中列的顺序和类型与 flow 查询结果匹配。 -- **时间索引**:为 sink 表指定 `TIME INDEX`,通常使用时间窗口函数生��的时间列。 +- **时间索引**:为 sink 表指定 `TIME INDEX`,通常使用时间窗口函数生成的时间列。 - **将 `update_at` 指定为 schema 的最后一列**:flow 会自动将数据的更新时间写入 `update_at` 列。请确保此列是 sink 表模式中的最后一列。 - **Tag**:使用 `PRIMARY KEY` 指定 Tag,与 time index 一起作为行数据的唯一标识,并优化查询性能。 diff --git a/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/continuous-aggregation/usecase-example.md b/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/continuous-aggregation/usecase-example.md index 9e5c1107b..6b110fa7f 100644 --- a/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/continuous-aggregation/usecase-example.md +++ b/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/continuous-aggregation/usecase-example.md @@ -5,7 +5,7 @@ description: 持续聚合的用例示例,包括实时分析、实时监控和 # 用例 持续聚合的三个主要用例示例如下: -1. **实时分析**:一个实时分析平台,不断聚合来自事件流的数据,提供即时洞察,同时可选择将数据降采样到较低分辨率。例如,此系统可以编译来自高频日志事件流(例如,每毫秒发生一次)的数据,以提供每分钟的请求数、平均响应时间和每分钟的错误率等最新洞察�� +1. **实时分析**:一个实时分析平台,不断聚合来自事件流的数据,提供即时洞察,同时可选择将数据降采样到较低分辨率。例如,此系统可以编译来自高频日志事件流(例如,每毫秒发生一次)的数据,以提供每分钟的请求数、平均响应时间和每分钟的错误率等最新洞察。 2. **实时监控**:一个实时监控系统,不断聚合来自事件流的数据,根据聚合数据提供实时警报。例如,此系统可以处理来自传感器事件流的数据,以提供当温度超过某个阈值时的实时警报。 @@ -131,7 +131,7 @@ GROUP BY HAVING max_temp > 100; ``` -��述查询将 `temp_sensor_data` 表中的数据不断聚合到 `temp_alerts` 表中。 +上述查询将 `temp_sensor_data` 表中的数据不断聚合到 `temp_alerts` 表中。 它计算每个传感器和位置的最大温度读数,并过滤出最大温度超过 100 度的数据。 `temp_alerts` 表将不断更新聚合数据, 当温度超过阈值时提供实时警报(即 `temp_alerts` 表中的新行)。 diff --git a/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/deployments/configuration.md b/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/deployments/configuration.md index db44fb7af..d97676fd5 100644 --- a/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/deployments/configuration.md +++ b/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/deployments/configuration.md @@ -188,7 +188,7 @@ enable = true `存储`选项在 `datanode` 和 `standalone` 模式下有效,它指定了数据库数据目录和其他存储相关的选项。 -GreptimeDB 支持���数据保存在本地文件系统, AWS S3 以及其兼容服务(比如 MinIO、digitalocean space、腾讯 COS、百度对象存储(BOS)等),Azure Blob Storage 和阿里云 OSS。 +GreptimeDB 支持将数据保存在本地文件系统, AWS S3 以及其兼容服务(比如 MinIO、digitalocean space、腾讯 COS、百度对象存储(BOS)等),Azure Blob Storage 和阿里云 OSS。 | 选项 | 键 | 类型 | 描述 | | ------- | ----------------- | ------ | --------------------------------------------------- | @@ -709,7 +709,7 @@ backoff_max = "10s" ## backoff 指数,即下一个 backoff 时间 = 该指数 * 当前 backoff 时间。 backoff_base = 2 -## 如果总等待时间达到截止时间,则停止重新连接。如果此配置缺失,则重新连接��会终止。 +## 如果总等待时间达到截止时间,则停止重新连接。如果此配置缺失,则重新连接不会终止。 backoff_deadline = "5mins" ``` @@ -721,7 +721,7 @@ backoff_deadline = "5mins" | `store_addr` | String | `127.0.0.1:2379` | etcd 服务器地址,默认值为 `127.0.0.1:2379`,多个服务器地址用逗号分隔,格式为 `"ip1:port1,ip2:port2,..."`。 | | `selector` | String | `lease_based` | 创建新表时选择 datanode 的负载均衡策略,详见 [选择器](/contributor-guide/metasrv/selector.md)。 | | `use_memory_store` | Boolean | `false` | 仅用于在没有 etcd 集群时的测试,将数据存储在内存中,默认值为 `false`。 | -| enable_region_failover | Bool | false | 是否启用 region failover。
该功能仅在以集群��式运行的 GreptimeDB 上可用,并且
- 使用远程 WAL
- 使用共享存储(如 s3)。 | +| enable_region_failover | Bool | false | 是否启用 region failover。
该功能仅在以集群模式运行的 GreptimeDB 上可用,并且
- 使用远程 WAL
- 使用共享存储(如 s3)。 | | `procedure` | -- | -- | | | `procedure.max_retry_times` | 整数 | `12` | Procedure 的最大重试次数。 | | `procedure.retry_delay` | 字符串 | `500ms` | Procedure 初始重试延迟,延迟会指数增长。 | diff --git a/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/deployments/deploy-on-kubernetes/getting-started.md b/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/deployments/deploy-on-kubernetes/getting-started.md index 8186f6671..bc2ca80c5 100644 --- a/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/deployments/deploy-on-kubernetes/getting-started.md +++ b/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/deployments/deploy-on-kubernetes/getting-started.md @@ -50,7 +50,7 @@ Thanks for using kind! 😊 ``` -使用以下命令检查集群的��态: +使用以下命令检查集群的状态: ```bash kubectl cluster-info diff --git a/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/ingest-data/for-iot/grpc-sdks/java.md b/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/ingest-data/for-iot/grpc-sdks/java.md index e92504f7b..896d128b3 100644 --- a/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/ingest-data/for-iot/grpc-sdks/java.md +++ b/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/ingest-data/for-iot/grpc-sdks/java.md @@ -96,7 +96,7 @@ Table cpuMetric = Table.from(cpuMetricSchema); // 单行的示例数据 String host = "127.0.0.1"; // 主机标识符 long ts = System.currentTimeMillis(); // 当前时间戳 -double cpuUser = 0.1; // 用户进程的 CPU 使用率(��分比) +double cpuUser = 0.1; // 用户进程的 CPU 使用率(百分比) double cpuSys = 0.12; // 系统进程的 CPU 使用率(百分比) // 将一行数据插入表中 diff --git a/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/integrations/grafana.md b/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/integrations/grafana.md index cf5f06ab6..33d813e93 100644 --- a/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/integrations/grafana.md +++ b/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/integrations/grafana.md @@ -41,7 +41,7 @@ cd docker docker compose up ``` -你也可以从 Grafana 的 docker 镜像中试用此插件�� +你也可以从 Grafana 的 docker 镜像中试用此插件: ```shell docker run -d -p 3000:3000 --name=grafana --rm \ diff --git a/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/logs/manage-pipelines.md b/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/logs/manage-pipelines.md index 986433e5b..9e06b9eee 100644 --- a/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/logs/manage-pipelines.md +++ b/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/logs/manage-pipelines.md @@ -17,7 +17,7 @@ GreptimeDB 提供了常见日志格式的内置 Pipeline,允许您直接使用 ### `greptime_identity` -`greptime_identity` Pipeline 适用于写入 JSON 日志,并自动�� JSON 日志中的每个字段创建列。 +`greptime_identity` Pipeline 适用于写入 JSON 日志,并自动为 JSON 日志中的每个字段创建列。 - JSON 日志中的第一层级的 key 是表中的列名。 - 如果相同字段包含不同类型的数据,则会返回错误。 diff --git a/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/logs/pipeline-config.md b/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/logs/pipeline-config.md index f2b37920b..192070295 100644 --- a/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/logs/pipeline-config.md +++ b/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/logs/pipeline-config.md @@ -6,7 +6,7 @@ description: 介绍 GreptimeDB 中 Pipeline 的配置,包括 Processor 和 Tra Pipeline 是 GreptimeDB 中对 log 数据进行解析和转换的一种机制, 由一个唯一的名称和一组配置规则组成,这些规则定义了如何对日志数据进行格式化、拆分和转换。目前我们支持 JSON(`application/json`)和纯文本(`text/plain`)格式的日志数据作为输入。 -这些配置以 YAML 格式提供,使得 Pipeline 能够在日志写入过程中,根据设定的规则对数据进行处理,并将处理后的数据存储到数据库中,便于后续的结构化查询��� +这些配置以 YAML 格式提供,使得 Pipeline 能够在日志写入过程中,根据设定的规则对数据进行处理,并将处理后的数据存储到数据库中,便于后续的结构化查询。 ## 整体结构 @@ -44,7 +44,7 @@ Processor 用于对 log 数据进行预处理,其配置位于 YAML 文件中 Pipeline 会按照多个 Processor 的顺序依次加工数据,每个 Processor 都依赖于上一个 Processor 处理的结果。 Processor 由一个 name 和多个配置组成,不同类型的 Processor 配置有不同的字段。 -我们目���内置了以下几种 Processor: +我们目前内置了以下几种 Processor: - `date`: 解析格式化的时间字符串字段,例如 `2024-07-12T16:18:53.048`。 - `epoch`: 解析数字时间戳字段,例如 `1720772378893`。 @@ -509,7 +509,7 @@ GreptimeDB 支持以下三种字段的索引类型: - `fulltext`: 用于指定某列使用 fulltext 类型的索引,该列需要是字符串类型 - `timestamp`: 用于指定某列是时间索引列 -不���供 `index` 字段时,GreptimeDB 会将该字段作为 `Field` 列。 +不提供 `index` 字段时,GreptimeDB 会将该字段作为 `Field` 列。 在 GreptimeDB 中,一张表里必须包含一个 `timestamp` 类型的列作为该表的时间索引列,因此一个 Pipeline 有且只有一个时间索引列。 diff --git a/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/logs/quick-start.md b/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/logs/quick-start.md index 70be999ae..2c9b4326e 100644 --- a/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/logs/quick-start.md +++ b/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/logs/quick-start.md @@ -126,7 +126,7 @@ transform: 该 pipeline 使用指定的模式拆分 `message` 字段以提取 `ip_address`、`timestamp`、`http_method`、`request_line`、`status_code`、`response_size` 和 `user_agent`。 然后,它使用格式 `%d/%b/%Y:%H:%M:%S %z` 解析 `timestamp` 字段,将其转换为数据库可以理解的正确时间戳格式。 -最后,它将每个字段转换为适当的数据类型并相应地建立索引��� +最后,它将每个字段转换为适当的数据类型并相应地建立索引。 需要注意的是,`request_line` 和 `user_agent` 字段被索引为 `fulltext` 以优化全文搜索查询,且表中必须有一个由 `timestamp` 指定的时间索引列。 执行以下命令上传配置文件: diff --git a/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/migrate-to-greptimedb/migrate-from-mysql.md b/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/migrate-to-greptimedb/migrate-from-mysql.md index b96d779ee..077bef03e 100644 --- a/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/migrate-to-greptimedb/migrate-from-mysql.md +++ b/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/migrate-to-greptimedb/migrate-from-mysql.md @@ -24,7 +24,7 @@ SQL 中请考虑以下几点: 1. 由于 time index 列在表创建后无法更改,所以你需要仔细选择 time index 列。时间索引最好设置为数据生成时的自然时间戳,因为它提供了查询数据的最直观方式,以及最佳的查询性能。例如,在 IOT 场景中,你可以使用传感器采集数据时的时间作为 time index;或者在可观测场景中使用事件的发生时间。 -2. 不建议在此迁移过程中另造一个时间戳用作时间索引,例���使用 `DEFAULT current_timestamp()` 创建的新列。也不建议使用具有随机时间戳的列。 +2. 不建议在此迁移过程中另造一个时间戳用作时间索引,例如使用 `DEFAULT current_timestamp()` 创建的新列。也不建议使用具有随机时间戳的列。 3. 选择合适的 time index 精度也至关重要。和 time index 的选择一样,一旦表创建完毕,time index 的精度就无法变更了。请根据你的数据集在[这里](/reference/sql/data-types#data-types-compatible-with-mysql-and-postgresql) 找到最适合的时间戳类型。 diff --git a/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/query-data/sql.md b/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/query-data/sql.md index 6129b8215..99c302acb 100644 --- a/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/query-data/sql.md +++ b/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/query-data/sql.md @@ -329,7 +329,7 @@ ALIGN '5s' TO '2023-12-01T00:00:00' BY (host) ORDER BY ts ASC; 1. `avg(cpu) RANGE '10s' FILL LINEAR` 是一个 Range 表达式。`RANGE '10s'` 指定了聚合的时间范围为 10s,`FILL LINEAR` 指定了如果某个点没有数据,使用 `LINEAR` 方法来填充。 2. `ALIGN '5s'` 指定了查询的步频为 5s。 3. `TO '2023-12-01T00:00:00` 指定了原始对齐时间。默认值为 Unix 时间 0。 -4. `BY (host)` 指定了聚合的键。如果省略 `BY` 关键字,那么默认使用数据表的主键作为聚��键。 +4. `BY (host)` 指定了聚合的键。如果省略 `BY` 关键字,那么默认使用数据表的主键作为聚合键。 5. `ORDER BY ts ASC` 指定了结果集的排序方法。如果不指定排序方法,结果集的顺序是不确定的。 查询结果如下: diff --git a/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/query-data/view.md b/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/query-data/view.md index a0db73217..29dc6f157 100644 --- a/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/query-data/view.md +++ b/i18n/zh/docusaurus-plugin-content-docs/current/user-guide/query-data/view.md @@ -8,7 +8,7 @@ description: 介绍了视图的定义、使用示例、更新、显示定义、 它包含与真实的表一样的行和列。 每次查询视图时,都会运行该视图的查询。 -在以下情况下,我��可以使用视图: +在以下情况下,我们可以使用视图: * 简化复杂查询,避免每次查询都重复编写和发送复杂语句。 * 对特定用户开放读取权限,限制一些列和行的读取,保证数据安全和隔离。