diff --git a/rust_compiler/libs/parser/src/lib.rs b/rust_compiler/libs/parser/src/lib.rs index 0a4b49e..abd07e0 100644 --- a/rust_compiler/libs/parser/src/lib.rs +++ b/rust_compiler/libs/parser/src/lib.rs @@ -154,7 +154,7 @@ impl<'a> Parser<'a> { let (start_line, start_col) = start_token .as_ref() .map(|t| (t.line, t.span.start)) - .unwrap_or((1, 1)); + .unwrap_or((0, 0)); let node = parser(self)?; @@ -207,7 +207,7 @@ impl<'a> Parser<'a> { let (start_line, start_col) = first_token .as_ref() .map(|tok| (tok.line, tok.span.start)) - .unwrap_or((1, 1)); + .unwrap_or((0, 0)); let mut expressions = Vec::>::new(); diff --git a/rust_compiler/libs/tokenizer/src/lib.rs b/rust_compiler/libs/tokenizer/src/lib.rs index c70bda6..8138ea5 100644 --- a/rust_compiler/libs/tokenizer/src/lib.rs +++ b/rust_compiler/libs/tokenizer/src/lib.rs @@ -11,7 +11,7 @@ use token::{Token, TokenType}; #[derive(Error, Debug)] pub enum Error { - #[error("IO Error: {0}")] + #[error(transparent)] IOError(#[from()] std::io::Error), #[error(transparent)] LexError(#[from] token::LexError),