core/types, rlp: optimize derivesha (#21728)
This PR contains a minor optimization in derivesha, by exposing the RLP int-encoding and making use of it to write integers directly to a buffer (an RLP integer is known to never require more than 9 bytes total). rlp.AppendUint64 might be useful in other places too. The code assumes, just as before, that the hasher (a trie) will copy the key internally, which it does when doing keybytesToHex(key). Co-authored-by: Felix Lange <fjl@twurst.com>
This commit is contained in:
parent
36bb7ac083
commit
175506e7fd
@ -17,8 +17,6 @@
|
|||||||
package types
|
package types
|
||||||
|
|
||||||
import (
|
import (
|
||||||
"bytes"
|
|
||||||
|
|
||||||
"github.com/ethereum/go-ethereum/common"
|
"github.com/ethereum/go-ethereum/common"
|
||||||
"github.com/ethereum/go-ethereum/rlp"
|
"github.com/ethereum/go-ethereum/rlp"
|
||||||
)
|
)
|
||||||
@ -37,26 +35,24 @@ type Hasher interface {
|
|||||||
|
|
||||||
func DeriveSha(list DerivableList, hasher Hasher) common.Hash {
|
func DeriveSha(list DerivableList, hasher Hasher) common.Hash {
|
||||||
hasher.Reset()
|
hasher.Reset()
|
||||||
keybuf := new(bytes.Buffer)
|
|
||||||
|
|
||||||
// StackTrie requires values to be inserted in increasing
|
// StackTrie requires values to be inserted in increasing
|
||||||
// hash order, which is not the order that `list` provides
|
// hash order, which is not the order that `list` provides
|
||||||
// hashes in. This insertion sequence ensures that the
|
// hashes in. This insertion sequence ensures that the
|
||||||
// order is correct.
|
// order is correct.
|
||||||
|
|
||||||
|
var buf []byte
|
||||||
for i := 1; i < list.Len() && i <= 0x7f; i++ {
|
for i := 1; i < list.Len() && i <= 0x7f; i++ {
|
||||||
keybuf.Reset()
|
buf = rlp.AppendUint64(buf[:0], uint64(i))
|
||||||
rlp.Encode(keybuf, uint(i))
|
hasher.Update(buf, list.GetRlp(i))
|
||||||
hasher.Update(keybuf.Bytes(), list.GetRlp(i))
|
|
||||||
}
|
}
|
||||||
if list.Len() > 0 {
|
if list.Len() > 0 {
|
||||||
keybuf.Reset()
|
buf = rlp.AppendUint64(buf[:0], 0)
|
||||||
rlp.Encode(keybuf, uint(0))
|
hasher.Update(buf, list.GetRlp(0))
|
||||||
hasher.Update(keybuf.Bytes(), list.GetRlp(0))
|
|
||||||
}
|
}
|
||||||
for i := 0x80; i < list.Len(); i++ {
|
for i := 0x80; i < list.Len(); i++ {
|
||||||
keybuf.Reset()
|
buf = rlp.AppendUint64(buf[:0], uint64(i))
|
||||||
rlp.Encode(keybuf, uint(i))
|
hasher.Update(buf, list.GetRlp(i))
|
||||||
hasher.Update(keybuf.Bytes(), list.GetRlp(i))
|
|
||||||
}
|
}
|
||||||
return hasher.Hash()
|
return hasher.Hash()
|
||||||
}
|
}
|
||||||
|
71
rlp/raw.go
71
rlp/raw.go
@ -180,3 +180,74 @@ func readSize(b []byte, slen byte) (uint64, error) {
|
|||||||
}
|
}
|
||||||
return s, nil
|
return s, nil
|
||||||
}
|
}
|
||||||
|
|
||||||
|
// AppendUint64 appends the RLP encoding of i to b, and returns the resulting slice.
|
||||||
|
func AppendUint64(b []byte, i uint64) []byte {
|
||||||
|
if i == 0 {
|
||||||
|
return append(b, 0x80)
|
||||||
|
} else if i < 128 {
|
||||||
|
return append(b, byte(i))
|
||||||
|
}
|
||||||
|
switch {
|
||||||
|
case i < (1 << 8):
|
||||||
|
return append(b, 0x81, byte(i))
|
||||||
|
case i < (1 << 16):
|
||||||
|
return append(b, 0x82,
|
||||||
|
byte(i>>8),
|
||||||
|
byte(i),
|
||||||
|
)
|
||||||
|
case i < (1 << 24):
|
||||||
|
return append(b, 0x83,
|
||||||
|
byte(i>>16),
|
||||||
|
byte(i>>8),
|
||||||
|
byte(i),
|
||||||
|
)
|
||||||
|
case i < (1 << 32):
|
||||||
|
return append(b, 0x84,
|
||||||
|
byte(i>>24),
|
||||||
|
byte(i>>16),
|
||||||
|
byte(i>>8),
|
||||||
|
byte(i),
|
||||||
|
)
|
||||||
|
case i < (1 << 40):
|
||||||
|
return append(b, 0x85,
|
||||||
|
byte(i>>32),
|
||||||
|
byte(i>>24),
|
||||||
|
byte(i>>16),
|
||||||
|
byte(i>>8),
|
||||||
|
byte(i),
|
||||||
|
)
|
||||||
|
|
||||||
|
case i < (1 << 48):
|
||||||
|
return append(b, 0x86,
|
||||||
|
byte(i>>40),
|
||||||
|
byte(i>>32),
|
||||||
|
byte(i>>24),
|
||||||
|
byte(i>>16),
|
||||||
|
byte(i>>8),
|
||||||
|
byte(i),
|
||||||
|
)
|
||||||
|
case i < (1 << 56):
|
||||||
|
return append(b, 0x87,
|
||||||
|
byte(i>>48),
|
||||||
|
byte(i>>40),
|
||||||
|
byte(i>>32),
|
||||||
|
byte(i>>24),
|
||||||
|
byte(i>>16),
|
||||||
|
byte(i>>8),
|
||||||
|
byte(i),
|
||||||
|
)
|
||||||
|
|
||||||
|
default:
|
||||||
|
return append(b, 0x88,
|
||||||
|
byte(i>>56),
|
||||||
|
byte(i>>48),
|
||||||
|
byte(i>>40),
|
||||||
|
byte(i>>32),
|
||||||
|
byte(i>>24),
|
||||||
|
byte(i>>16),
|
||||||
|
byte(i>>8),
|
||||||
|
byte(i),
|
||||||
|
)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
@ -21,6 +21,7 @@ import (
|
|||||||
"io"
|
"io"
|
||||||
"reflect"
|
"reflect"
|
||||||
"testing"
|
"testing"
|
||||||
|
"testing/quick"
|
||||||
)
|
)
|
||||||
|
|
||||||
func TestCountValues(t *testing.T) {
|
func TestCountValues(t *testing.T) {
|
||||||
@ -239,3 +240,40 @@ func TestReadSize(t *testing.T) {
|
|||||||
}
|
}
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
|
|
||||||
|
func TestAppendUint64(t *testing.T) {
|
||||||
|
tests := []struct {
|
||||||
|
input uint64
|
||||||
|
slice []byte
|
||||||
|
output string
|
||||||
|
}{
|
||||||
|
{0, nil, "80"},
|
||||||
|
{1, nil, "01"},
|
||||||
|
{2, nil, "02"},
|
||||||
|
{127, nil, "7F"},
|
||||||
|
{128, nil, "8180"},
|
||||||
|
{129, nil, "8181"},
|
||||||
|
{0xFFFFFF, nil, "83FFFFFF"},
|
||||||
|
{127, []byte{1, 2, 3}, "0102037F"},
|
||||||
|
{0xFFFFFF, []byte{1, 2, 3}, "01020383FFFFFF"},
|
||||||
|
}
|
||||||
|
|
||||||
|
for _, test := range tests {
|
||||||
|
x := AppendUint64(test.slice, test.input)
|
||||||
|
if !bytes.Equal(x, unhex(test.output)) {
|
||||||
|
t.Errorf("AppendUint64(%v, %d): got %x, want %s", test.slice, test.input, x, test.output)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
func TestAppendUint64Random(t *testing.T) {
|
||||||
|
fn := func(i uint64) bool {
|
||||||
|
enc, _ := EncodeToBytes(i)
|
||||||
|
encAppend := AppendUint64(nil, i)
|
||||||
|
return bytes.Equal(enc, encAppend)
|
||||||
|
}
|
||||||
|
config := quick.Config{MaxCountScale: 50}
|
||||||
|
if err := quick.Check(fn, &config); err != nil {
|
||||||
|
t.Fatal(err)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
Loading…
Reference in New Issue
Block a user